Jump to content

Aspettando Fermi ......


Achille GForce

Recommended Posts

ho controllato ed è venuto fuori che (riporto il post che ho inviato anche nell'altro foro):

 

"si tratta decisamente di un fake quel bench:

 

questo è il link del sito: http://www.czechgamer.com/novinky/5780/Realny-vykon-GeForce-380.html

 

questo è quello che c'e scritto tradotto da google: ovviamente non c'e fonte quindi poco attendibile

 

questo è il bench originale a quale è stato aggiunta una riga: techPowerUp :: ASUS EAH5970 2 GB GDDR5 Review :: Page 31 / 35

 

secondo me il fatto che non ci sia fonte alcuna nel link dalla lingua a me sconosciuta la dice lunga, e in piu il fatto che techpowerup che è il sito che riporta quelle recensioni con quella grafica non abbia quel bench presente nel sito (o almeno io non l'ho trovato) è la seconda prova che quello è un fake!!!!!"

 

voi che ne pensate?

 

è un fake evidente secondo me;)

se ci guardi per bene si vede anche che l'ombra della penultima barra è diversa dalle altre...

Link to comment
Share on other sites



  • Replies 2.3k
  • Created
  • Last Reply

Top Posters In This Topic

eppure quello del ces sarebbe dovuto essere il sample a 512stream. a meno che cerchino uno step per abilitare tutto in modo completo sacrificando le frequenze ? probabile.

 

ma a sto punto dubito che vedremo RV970 a fine 2010, rimarranno con la 5870 ( neanche la 5890 ) fino a quando Nvidia non diventi troppo minacciosa. Comunque a parer mio il chip di ATi attuale è un capolavoro se consideria il rapporto fra potenzialità e costo di produzione.

Link to comment
Share on other sites

è un fake evidente secondo me;)

se ci guardi per bene si vede anche che l'ombra della penultima barra è diversa dalle altre...

 

si hai ragione, era palesemente un fake! cmq sull'altro foro l'utente che ha postato la news afferma che questo è un montaggio che rappresenterebbe quello che un probabile tester avrebbe fatto trapelare tempo fa!!! io non credo a questa cosa, anche perchè se un tester tempo fa riusciva a dire quello che il grafico mostra di una gtx380 o non aveva quella scheda, oppure al CES di las vegas nvidia ha portato le vga sbagliate!!!! E' assurdissimo!!!

 

OT:

come ve la cavate con gli i7, nella sez oc&cpu stiamo sclerando per un problema con delle ram e un i7 950, se qualcuno pensa di essere d'aiuto fa un salto per favore! grazie

Fine O.T.

Link to comment
Share on other sites

eppure quello del ces sarebbe dovuto essere il sample a 512stream. a meno che cerchino uno step per abilitare tutto in modo completo sacrificando le frequenze ? probabile.

 

ma a sto punto dubito che vedremo RV970 a fine 2010, rimarranno con la 5870 ( neanche la 5890 ) fino a quando Nvidia non diventi troppo minacciosa. Comunque a parer mio il chip di ATi attuale è un capolavoro se consideria il rapporto fra potenzialità e costo di produzione.

 

 

la vedo una strategia molto stupida fermarsi adesso che la concorrente è in vantaggio... la cosa giusta da fare e prendere quanto piu terrendo possibile e lasciare indietro la concorrente di sempre..Diciamo che se io fossi ati ragionerei così, visto che stiamo parlando di aziende che fatturano cifre con parecchi zeri!!!!

Link to comment
Share on other sites

la vedo una strategia molto stupida fermarsi adesso che la concorrente è in vantaggio... la cosa giusta da fare e prendere quanto piu terrendo possibile e lasciare indietro la concorrente di sempre..Diciamo che se io fossi ati ragionerei così, visto che stiamo parlando di aziende che fatturano cifre con parecchi zeri!!!!

 

purtroppo ati è amd e non ha solo quello a cui pensare...

sull'altro fronte non è che sia messa cosi' bene :muro:

prima di investire fondi a iosa per provare a dare la zampata a nvidia ci penseranno su due o tre volte...

Link to comment
Share on other sites

purtroppo ati è amd e non ha solo quello a cui pensare...

sull'altro fronte non è che sia messa cosi' bene :muro:

prima di investire fondi a iosa per provare a dare la zampata a nvidia ci penseranno su due o tre volte...

 

si tratta solo di affinare il pp attuale e di migliorare le rese; una volta ottenuto ciò, una nuova revisione del chip con frequenze più elevate o un maggior numero di SP attivi (o entrambe le cose) arriva a costo zero.

Link to comment
Share on other sites

si tratta solo di affinare il pp attuale e di migliorare le rese; una volta ottenuto ciò, una nuova revisione del chip con frequenze più elevate o un maggior numero di SP attivi (o entrambe le cose) arriva a costo zero.

 

La penso proprio cm te! La cosa piu sbagliata da fare per ati al momento è rimanere ferma cullandosi del vantaggio che ha attualmente nei confronti di nvidia! un colosso come nvidia ci mette poco a riprendersi!

 

Anche perchè tornando al discorso di prima, ammettendo che nvidia con questa nuova architettura non sarà competitiva subito, bisogna sempre considerare il medio/lungo termine e quindi che nelle prossima generazioni lo diventi(R600 docet), mentre ati, solo il prossimo anno si troverà a fare i conti con la nuova architettura, e potrebbe invertirsi la situazione se come abbiamo appena detto la prima generazione di N.I. non sarà competitiva da subito !!!! in quel caso nvidia si troverebbe con un anno di vantaggio avendo anticipato l'uscita dei nuovi progetti!!!! poi è ovvio che queste sono solo supposizioni!!!!

Link to comment
Share on other sites

bè non è vero costa sviluppare un nuovo progetto, ATi dovrebbe fermarsi a vendere più pezzi possibile di questa architettura come fece G80, in cui siamo rimasti lì con le 8800 per un sacco di tempo in questo modo Nvidia ha capitalizzato il massimo che poteva con 1 solo progetto. I soldi del progetto li recuperi con le vendite, ovviamente loro hanno una stima di quello che vogliono vendere se superi la stima ben venga, ma è ovvio che se Nvidia fino al 2012 non esce nulla ATI non deve far uscire nulla altrimenti se va avanti come un treno vuol dire che si limita solamente a vendere il minimo indispensabile che hanno previsto e non fa il pieno, così non si guadagna !

 

secondo te perchè ogni casa quando è nel momento d'oro finisce sempre per dormire sugli allori ? non perchè siano stupidi o altro, è normale si fermano e cercano di capitalizzare il più possibile prima di incominciare a spendere per una nuova architettura. Più soldi e meno lavoro.

Link to comment
Share on other sites

ciao a tutti, sono di ritorno dalla sezione delle presentazioni. Un saluto a tutti i vecchi amici di HWUpgrade e News3D e a tutti quelli che non mi conoscono.

 

Ho dato un'ochiata veloce alla discussione e vorrei intervenire su alcuni punti.

 

Questione ritardi nella presentazione di Fermi. Come ho già avuto modo di dire su HWU, nVIDIA è palesemente in difficoltà e, stando alle informazioni certe a disposizione, pare che queste difficoltà siano dovute, soprattutto, all'attuale impossibilità di avere un chip con tutti gli stream processor (da ora SP) funzionanti. Dalle info sulla versione tesla, si ha la certezza che entro il Q2 2010 ci saranno a disposizione chip con 448 alu (ossia 14 SP) e 112 TMU funzionanti (ovviamente nelle tesla le TMU non sono utilizzate).

Da qualche parte si è letto che i dati sulla versione tesla non fanno testo eprchè le geforce sono un'altra cosa: sarà anche vero, ma non si è mai verificato prima d'ora che le tesla siano uscite castrate nel numero di alu rispetto alle geforce, soprattutto alla luce del fatto che le tesla hanno diverse altre parti del chip inattive (e invece funzionanti sulle geforce) e frequenze solitamente più basse, il che rende più semplice avere chip con un maggior numero di SP funzionanti.

Un altro problema sembra quello delle frequenze di funzionamento del chip. Le frequenze viste per le tesla, con 448 alu, non sono sufficienti a rendere fermi competitivo nei confronti della 5870. Il rapporto teorico tra flops è peggiore di quello visto tra rv770 e gt200b e la capacità di fare texture fetch e address con 112 TMU a 600 MHz circa, pone in chip nVIDIA al di sotto delle prestazioni della controparte ATi (per la prima volta in tanti anni).

Al momento, quindi, l'ipotesi più probabile è che i sample visti in azione siano stati pesantemente overclockati e, probabilmente, anche overvoltati (per migliorarne la stabilità) il tutto a discapito delle temperature (e meglio, ai fini della dissipazione, avere più SP attivi che non salire in frequenze o, peggio, aumentare la Vdd).

 

Quindi, IMHO, al momento, il porblema che devono risolvere è quello di raggiungere un compromesso tra stabilità operativa, frequenze di funzionamento, temperature e potenza necessaria, in modo da far si che il prodotot presentato sia almeno superiore ad una 5870 senza che il bilancio energetico risulti disastroso. Questo in attesa di avere il chip con tutti gli SP attivi.

Per questo ho ipotizzato un lancio di una versione (gf100?) castrata per prima, contrariamente a ciò che avviene di solito, e di una successiva (gf104?) "completa". Questo eprchè nVIDIA ha anche bisogno di mostrare qualcosa nel più breve tempo possibile.

 

Perchè questi problemi? La risposta è molto semplice: è stata effettuata una transizione da 55 a 40 nm senza aver prima avuto il tempo di affinare il pp a 40 nm e il tutto è stato fatto con un'architettura nuova. Fermi, infatti presenta molte novità rispetto a Gt200 (ma di questo, magari parlo in un altro post).

Discorso flop o meno. Una nuova architettura si giudica nel tempo. R600 per quanto visto inizialmente era un flop, ma senza R600 non ci sarebbe stato RV770 ed RV870. A volte è necessario un passaggio intermedio prima di ottenere i risultati desiderati. Quindi, indipendentemente dai risultati di questo chip, il progetto fermi andrà giudicato tra qualche anno.

 

Ovvio che a chi compra non frega niente della bontà di un progetto ma cerca il prodotot migliore nell'immediato; al contrario, ad un'azienda che investe miliardi in un progetto, interessa che quel progetto sia il più longevo possibile e spesso valuta i risultati a medio-lungo termine.

 

Per quanot riguarda ATi, su NI ci sta lavorabdo da parecchio ma, di sicuro, prima uscirà con una verisone a 28 nm di uno o più chip dell'attuale famioglia (il tick tock di intel :asd:) e solo dopo lancerà la nuova generazione di chip. Questo per evitare di incorrere in problemi analoghi a quelli che sta incontrando nVIDIA (avendo due variabili, pp e architettura, quando is effettua una transizione conviene sempre far si che una delle due non rappresenti un'incognita). I 28 nm sono un nuovo pp, un full node, come si dice in gergo e prevedono high-k, SOI, ecc (non sarà bulk, insomma) e questo vale sia per GF che per TSMC

Quoto in tutto! Parole sante.:)

Ben arrivato.O0

Edited by dj883u2
Link to comment
Share on other sites

si tratta solo di affinare il pp attuale e di migliorare le rese; una volta ottenuto ciò, una nuova revisione del chip con frequenze più elevate o un maggior numero di SP attivi (o entrambe le cose) arriva a costo zero.

finchè si tratta di affinare quello a 40nm ci può stare... ma passare a un processo produttivo nuovo non è una bazzeccola. Cambiare tutti i macchinari ha un costo enorme.

A meno che non riesca ad utilizzare lo stesso processo produttivo a 32nm sia per cpu che gpu, in quel caso potrebbe pensare anche di iniziare a integrare la gpu nella cpu cercando un po' di fare quello che sta facendo intel

Link to comment
Share on other sites

bè non è vero costa sviluppare un nuovo progetto, ATi dovrebbe fermarsi a vendere più pezzi possibile di questa architettura come fece G80, in cui siamo rimasti lì con le 8800 per un sacco di tempo in questo modo Nvidia ha capitalizzato il massimo che poteva con 1 solo progetto. I soldi del progetto li recuperi con le vendite, ovviamente loro hanno una stima di quello che vogliono vendere se superi la stima ben venga, ma è ovvio che se Nvidia fino al 2012 non esce nulla ATI non deve far uscire nulla altrimenti se va avanti come un treno vuol dire che si limita solamente a vendere il minimo indispensabile che hanno previsto e non fa il pieno, così non si guadagna !

 

secondo te perchè ogni casa quando è nel momento d'oro finisce sempre per dormire sugli allori ? non perchè siano stupidi o altro, è normale si fermano e cercano di capitalizzare il più possibile prima di incominciare a spendere per una nuova architettura. Più soldi e meno lavoro.

 

invece no; ATi sta capitalizzando ora quello che ha investito col progetto R600 di cui rv770 ed rv870 sono figli. La differenza sta nel fatto che nVIDIA ha dovuto già rimaneggiare due volte il progetto G80 (con G9x in misura minima e, soprattutto, con gt200); adesso con fermi è stata costretta a progettare una nuova architettura, mentre ATi, da R600 in poi, ha introdotto di volta in volta delle piccole varianti che le hanno consetito di essere ugualmente competitiva. I chip ATi costano molto meno sia a livello di sviluppo che di produzxione rispetto a quelli della controparte.

E il vantaggio principale lo ha acquisito proprio grazie alla facilità di adattamento dell'architettura ai nuovi pp ed ai cambi di API. Vantaggio come pp adottati (ATi ha avuto tutto il tempo di collaudare i 40 nm e nVIDIA no) e vantaggi economici (chip con rese più elevate con unità ridondanti e capacità di coprire di volta in volta tutte le fasce).

Per continuare a mantenere questo vantaggio, anzi per incrementarlo, deve continuare a correre. Il discorso è elementare: passando a 28 nm quando nVIDIA sta ancora combattendo con i 40 nm, ATi avrà la possibilità di realizzare chip piccoli, economici e più veloci di quello che la cotroparte può mettere in campo indipendentemente dagli sforzi che possa fare. Quindi, prima passa a 28 nm, prima consolida questo vantaggio.

Chi è in vantaggio non dorme sugli allori; sviluppare una nuova architettura richiede tempo e molti soldi (motivo per cui più è longeva meglio è e in questo la scelta di ATi, finora, è stata vincente).

 

 

 

Quoto in tutto! Parole sante.:)

Ben arrivato.O0

 

grazie :)

 

finchè si tratta di affinare quello a 40nm ci può stare... ma passare a un processo produttivo nuovo non è una bazzeccola. Cambiare tutti i macchinari ha un costo enorme.

A meno che non riesca ad utilizzare lo stesso processo produttivo a 32nm sia per cpu che gpu, in quel caso potrebbe pensare anche di iniziare a integrare la gpu nella cpu cercando un po' di fare quello che sta facendo intel

 

il prossimo step previsto è 28 nm SOI e high-k per GF e, in toeria, 32 nm bulk e 28 nm SOI e high-k per tsmc. I 32 sono uno shrink ottico dei 40 (ma credo che saranno saltati a piè pari, considerati i problemi incontrati con i 40 nm). L'affinamento dei 40 nm e l'adozione del nuovo pp sono due cose che procedono di pari passo ed è molto probabile che i 28 nm sarà il prossimo step anche per le cpu.

Edited by dj883u2
Link to comment
Share on other sites

I chip ATi costano molto meno sia a livello di sviluppo che di produzxione rispetto a quelli della controparte.

E il vantaggio principale lo ha acquisito proprio grazie alla facilità di adattamento dell'architettura ai nuovi pp ed ai cambi di API. Vantaggio come pp adottati (ATi ha avuto tutto il tempo di collaudare i 40 nm e nVIDIA no) e vantaggi economici (chip con rese più elevate con unità ridondanti e capacità di coprire di volta in volta tutte le fasce).

la chiave di volta è proprio qui: i chip di Ati costano poco e si può permettere di tenere i prezzi molto concorrenziali. Nvidia invece sta puntando molto sul Gpu computing ma questo gli sta costando enormemente. I suoi chip sono enormi e gli costano di più perchè hanno anche rese più basse. Per vendere gt200 ha rischiato di dover vendere sottocosto.

E il gpu computing su cui nvidia punta tanto sembra non riuscire a decollare. Ha puntato molto sulle librerie Cuda ma la maggior parte dei produttori software non si è avventurata a spendere per progettare su una libreria proprietaria che gira solo su nvidia. Forse l'unica speranza per nvidia è di spingere su delle librerie unificate, sperando che una volte diffuse le diano un buon vantaggio rispetto all'architettura di ati.

 

PS: so che siamo sul tuo campo quindi cerco di tenere viva la discussione perchè è un motivo di crescita per me e per tutti quelli che leggono :)

Link to comment
Share on other sites

la chiave di volta è proprio qui: i chip di Ati costano poco e si può permettere di tenere i prezzi molto concorrenziali. Nvidia invece sta puntando molto sul Gpu computing ma questo gli sta costando enormemente. I suoi chip sono enormi e gli costano di più perchè hanno anche rese più basse. Per vendere gt200 ha rischiato di dover vendere sottocosto.

E il gpu computing su cui nvidia punta tanto sembra non riuscire a decollare. Ha puntato molto sulle librerie Cuda ma la maggior parte dei produttori software non si è avventurata a spendere per progettare su una libreria proprietaria che gira solo su nvidia. Forse l'unica speranza per nvidia è di spingere su delle librerie unificate, sperando che una volte diffuse le diano un buon vantaggio rispetto all'architettura di ati.

 

PS: so che siamo sul tuo campo quindi cerco di tenere viva la discussione perchè è un motivo di crescita per me e per tutti quelli che leggono :)

 

Nvidia continua ancora a sbagliare. Per esempio se solo avesse reso libero PhysX, avrebbe ottenuto già molto ma molto di +.....

Link to comment
Share on other sites

invece no; ATi sta capitalizzando ora quello che ha investito col progetto R600 di cui rv770 ed rv870 sono figli. La differenza sta nel fatto che nVIDIA ha dovuto già rimaneggiare due volte il progetto G80 (con G9x in misura minima e, soprattutto, con gt200); adesso con fermi è stata costretta a progettare una nuova architettura, mentre ATi, da R600 in poi, ha introdotto di volta in volta delle piccole varianti che le hanno consetito di essere ugualmente competitiva. I chip ATi costano molto meno sia a livello di sviluppo che di produzxione rispetto a quelli della controparte.

E il vantaggio principale lo ha acquisito proprio grazie alla facilità di adattamento dell'architettura ai nuovi pp ed ai cambi di API. Vantaggio come pp adottati (ATi ha avuto tutto il tempo di collaudare i 40 nm e nVIDIA no) e vantaggi economici (chip con rese più elevate con unità ridondanti e capacità di coprire di volta in volta tutte le fasce).

Per continuare a mantenere questo vantaggio, anzi per incrementarlo, deve continuare a correre. Il discorso è elementare: passando a 28 nm quando nVIDIA sta ancora combattendo con i 40 nm, ATi avrà la possibilità di realizzare chip piccoli, economici e più veloci di quello che la cotroparte può mettere in campo indipendentemente dagli sforzi che possa fare. Quindi, prima passa a 28 nm, prima consolida questo vantaggio.

Chi è in vantaggio non dorme sugli allori; sviluppare una nuova architettura richiede tempo e molti soldi (motivo per cui più è longeva meglio è e in questo la scelta di ATi, finora, è stata vincente).

 

Rv670 era quello che doveva essere in fin dei conti R600 (consumi, pp, etc.), Ati con R600, che tutti gridavano al flop etc. ha dato i suoi frutti ancora adesso con questa nuova serie di schede HD5000.

 

Nvidia con G80 ha preso la strada che ha ripagato nell'immediato, ma adesso le difficoltà che stanno avendo è la dimostrazione lampante di un progetto che non aveva futuro senza notevoli cambiamenti.

 

Se Ati riesce a passare ai 28nm in tempi brevi la vedo ancora più grigia per Nvidia

Link to comment
Share on other sites

Rv670 era quello che doveva essere in fin dei conti R600 (consumi, pp, etc.), Ati con R600, che tutti gridavano al flop etc. ha dato i suoi frutti ancora adesso con questa nuova serie di schede HD5000.

 

Nvidia con G80 ha preso la strada che ha ripagato nell'immediato, ma adesso le difficoltà che stanno avendo è la dimostrazione lampante di un progetto che non aveva futuro senza notevoli cambiamenti.

 

Se Ati riesce a passare ai 28nm in tempi brevi la vedo ancora più grigia per Nvidia

Hai perfettamente ragione... io spero di vedere presto architetture a 28nm soprattutto per quanto riguarda consumi e prestazioni.

 

 

p.s: nell'altro forum ti acclamano a gran voce, credo ci sia bisogno di te... O0

Link to comment
Share on other sites

E invece G80 è l'architettura superiore, R600 era solo più flessibile con le librerie supportate e basta. Nvidia adesso ha problemi perchè ha cambiato architettura, ATi invece non ha fatto altro che il solito die shrink del RV770.

E anche adesso è più questione di processo produttivo che di architettura perchè che fermi sia superiore non ci sono dubbi se solo avesse le giuste freqeunze.

 

R600 ha favorito una disfatta di ATI 10 volte peggio di questa che sta accadendo ad Nvidia e anche con il derivato rv670 o con rv770. Possiamo dire con assoluta certezza che finchè l'architettura era quella di G80 ATi stava dietro e basta, o di poco o di tanto, stava dietro sempre.

 

Dal 2006 ad adesso sono quasi 4 anni in cui Nvidia con G80 ha letteralmente spaccato ATi non solo nel mercato ma nel nome, e anche se adesso non c'è storia ATI non è comunque in grado di fare il giusto marketing contro Nvidia e la gente continua a comprare Nvidia anche per la reperibilità o per il prezzo appetibile delle 260 e 275.

 

 

 

Se il discorso è mettere nel mercato un architettura che giova col passare del tempo R600 è falito in pieno perchè un annata dal 2006 al 2008 è stata troppo pesante, non esiste previsione ottimistica futura che tenga, questo periodo nero di Nvidia è solo una barzelletta rispetto a quello che è accaduto ad ATI e se vogliamo metterla in questo punto meglio fare attenzione perchè Nvidia dietro ad ATI non ci stà volentieri con un progetto da oltre 3 miliardi di transistors e soprattutto non ha 1.5 miliardi di debito.

 

 

vorrei ricordare a tutti che Nvidia non ha mercato solo nel desktop, Fermi nasce SOPRATTUTTO per il GPU computing e supercomputer e grafica professionale in quanto è già sicuramente la GPU più veloce in doppia precisione anche con tutto castrato ed è compatibile con la maggior parte dei linguaggi di programmazione adesso, le Tesla hanno un ottimo mercato e si ricava parecchio, idem le quadro.

Edited by Achille GForce
Link to comment
Share on other sites

E invece G80 è l'architettura superiore, R600 era solo più flessibile con le librerie supportate e basta. Nvidia adesso ha problemi perchè ha cambiato architettura, ATi invece non ha fatto altro che il solito die shrink del RV770.

E anche adesso è più questione di processo produttivo che di architettura perchè che fermi sia superiore non ci sono dubbi se solo avesse le giuste freqeunze.

 

R600 ha favorito una disfatta di ATI 10 volte peggio di questa che sta accadendo ad Nvidia e anche con il derivato rv670 o con rv770. Possiamo dire con assoluta certezza che finchè l'architettura era quella di G80 ATi stava dietro e basta, o di poco o di tanto, stava dietro sempre.

 

Dal 2006 ad adesso sono quasi 4 anni in cui Nvidia con G80 ha letteralmente spaccato ATi non solo nel mercato ma nel nome, e anche se adesso non c'è storia ATI non è comunque in grado di fare il giusto marketing contro Nvidia e la gente continua a comprare Nvidia anche per la reperibilità o per il prezzo appetibile delle 260 e 275.

 

Se il discorso è mettere nel mercato un architettura che giova col passare del tempo R600 è falito in pieno perchè un annata dal 2006 al 2008 è stata troppo pesante, non esiste previsione ottimistica futura che tenga, questo periodo nero di Nvidia è solo una barzelletta rispetto a quello che è accaduto ad ATI e se vogliamo metterla in questo punto meglio fare attenzione perchè Nvidia dietro ad ATI non ci stà volentieri con un progetto da oltre 3 miliardi di transistors e soprattutto non ha 1.5 miliardi di debito.

E' una mia impressione o ne parli come se fosse una guerra a chi ce l'ha più bello e lungo? :???:

Link to comment
Share on other sites

E invece G80 è l'architettura superiore, R600 era solo più flessibile con le librerie supportate e basta. Nvidia adesso ha problemi perchè ha cambiato architettura, ATi invece non ha fatto altro che il solito die shrink del RV770.

E anche adesso è più questione di processo produttivo che di architettura perchè che fermi sia superiore non ci sono dubbi se solo avesse le giuste freqeunze.

 

R600 ha favorito una disfatta di ATI 10 volte peggio di questa che sta accadendo ad Nvidia e anche con il derivato rv670 o con rv770. Possiamo dire con assoluta certezza che finchè l'architettura era quella di G80 ATi stava dietro e basta, o di poco o di tanto, stava dietro sempre.

 

Dal 2006 ad adesso sono quasi 4 anni in cui Nvidia con G80 ha letteralmente spaccato ATi non solo nel mercato ma nel nome, e anche se adesso non c'è storia ATI non è comunque in grado di fare il giusto marketing contro Nvidia e la gente continua a comprare Nvidia anche per la reperibilità o per il prezzo appetibile delle 260 e 275.

 

Se il discorso è mettere nel mercato un architettura che giova col passare del tempo R600 è falito in pieno perchè un annata dal 2006 al 2008 è stata troppo pesante, non esiste previsione ottimistica futura che tenga.

Tralascio il resto delle tue dichiarazioni.....che comunque sono molto discutibili, per evitare "flame" inutili.......Confido che questo venga fatto anche dagli altri utenti.....

 

Mi soffermo solo sulle tue dichiarazioni che ho sottolineato in grosetto.....

 

Affermazioni come quelle da te riportate, hanno senso solo se opportunamente motivate....altrimenti lasciano il tempo che trovano.....

 

Pertanto, sei pregato di motivare "non con parole" ma con fatti reali e concreti tali affermazioni......

 

Achille GForce ti invito, ad avere un comportamento + consono e costruttivo alla discussione. Consideralo come un avvertimento.:)

Link to comment
Share on other sites

ciao a tutti, sono di ritorno dalla sezione delle presentazioni. Un saluto a tutti i vecchi amici di HWUpgrade e News3D e a tutti quelli che non mi conoscono.

 

Ho dato un'ochiata veloce alla discussione e vorrei intervenire su alcuni punti.

 

Questione ritardi nella presentazione di Fermi. Come ho già avuto modo di dire su HWU, nVIDIA è palesemente in difficoltà e, stando alle informazioni certe a disposizione, pare che queste difficoltà siano dovute, soprattutto, all'attuale impossibilità di avere un chip con tutti gli stream processor (da ora SP) funzionanti. Dalle info sulla versione tesla, si ha la certezza che entro il Q2 2010 ci saranno a disposizione chip con 448 alu (ossia 14 SP) e 112 TMU funzionanti (ovviamente nelle tesla le TMU non sono utilizzate).

Da qualche parte si è letto che i dati sulla versione tesla non fanno testo eprchè le geforce sono un'altra cosa: sarà anche vero, ma non si è mai verificato prima d'ora che le tesla siano uscite castrate nel numero di alu rispetto alle geforce, soprattutto alla luce del fatto che le tesla hanno diverse altre parti del chip inattive (e invece funzionanti sulle geforce) e frequenze solitamente più basse, il che rende più semplice avere chip con un maggior numero di SP funzionanti.

Un altro problema sembra quello delle frequenze di funzionamento del chip. Le frequenze viste per le tesla, con 448 alu, non sono sufficienti a rendere fermi competitivo nei confronti della 5870. Il rapporto teorico tra flops è peggiore di quello visto tra rv770 e gt200b e la capacità di fare texture fetch e address con 112 TMU a 600 MHz circa, pone in chip nVIDIA al di sotto delle prestazioni della controparte ATi (per la prima volta in tanti anni).

Al momento, quindi, l'ipotesi più probabile è che i sample visti in azione siano stati pesantemente overclockati e, probabilmente, anche overvoltati (per migliorarne la stabilità) il tutto a discapito delle temperature (e meglio, ai fini della dissipazione, avere più SP attivi che non salire in frequenze o, peggio, aumentare la Vdd).

 

Quindi, IMHO, al momento, il porblema che devono risolvere è quello di raggiungere un compromesso tra stabilità operativa, frequenze di funzionamento, temperature e potenza necessaria, in modo da far si che il prodotot presentato sia almeno superiore ad una 5870 senza che il bilancio energetico risulti disastroso. Questo in attesa di avere il chip con tutti gli SP attivi.

Per questo ho ipotizzato un lancio di una versione (gf100?) castrata per prima, contrariamente a ciò che avviene di solito, e di una successiva (gf104?) "completa". Questo eprchè nVIDIA ha anche bisogno di mostrare qualcosa nel più breve tempo possibile.

 

Perchè questi problemi? La risposta è molto semplice: è stata effettuata una transizione da 55 a 40 nm senza aver prima avuto il tempo di affinare il pp a 40 nm e il tutto è stato fatto con un'architettura nuova. Fermi, infatti presenta molte novità rispetto a Gt200 (ma di questo, magari parlo in un altro post).

Discorso flop o meno. Una nuova architettura si giudica nel tempo. R600 per quanto visto inizialmente era un flop, ma senza R600 non ci sarebbe stato RV770 ed RV870. A volte è necessario un passaggio intermedio prima di ottenere i risultati desiderati. Quindi, indipendentemente dai risultati di questo chip, il progetto fermi andrà giudicato tra qualche anno.

 

Ovvio che a chi compra non frega niente della bontà di un progetto ma cerca il prodotot migliore nell'immediato; al contrario, ad un'azienda che investe miliardi in un progetto, interessa che quel progetto sia il più longevo possibile e spesso valuta i risultati a medio-lungo termine.

 

Per quanot riguarda ATi, su NI ci sta lavorabdo da parecchio ma, di sicuro, prima uscirà con una verisone a 28 nm di uno o più chip dell'attuale famioglia (il tick tock di intel :asd:) e solo dopo lancerà la nuova generazione di chip. Questo per evitare di incorrere in problemi analoghi a quelli che sta incontrando nVIDIA (avendo due variabili, pp e architettura, quando is effettua una transizione conviene sempre far si che una delle due non rappresenti un'incognita). I 28 nm sono un nuovo pp, un full node, come si dice in gergo e prevedono high-k, SOI, ecc (non sarà bulk, insomma) e questo vale sia per GF che per TSMC

 

ciao Stefano...mi fa piacere che hai accettato di dare il tuo prezioso contributo alla discussione...il contenuto dei tuoi commenti è come sempre da :ave:

Link to comment
Share on other sites

Guest
This topic is now closed to further replies.

×
×
  • Create New...