Jump to content

Aspettando Fermi ......


Achille GForce

Recommended Posts

invece no; ATi sta capitalizzando ora quello che ha investito col progetto R600 di cui rv770 ed rv870 sono figli. La differenza sta nel fatto che nVIDIA ha dovuto già rimaneggiare due volte il progetto G80 (con G9x in misura minima e, soprattutto, con gt200); adesso con fermi è stata costretta a progettare una nuova architettura, mentre ATi, da R600 in poi, ha introdotto di volta in volta delle piccole varianti che le hanno consetito di essere ugualmente competitiva. I chip ATi costano molto meno sia a livello di sviluppo che di produzxione rispetto a quelli della controparte.

E il vantaggio principale lo ha acquisito proprio grazie alla facilità di adattamento dell'architettura ai nuovi pp ed ai cambi di API. Vantaggio come pp adottati (ATi ha avuto tutto il tempo di collaudare i 40 nm e nVIDIA no) e vantaggi economici (chip con rese più elevate con unità ridondanti e capacità di coprire di volta in volta tutte le fasce).

Per continuare a mantenere questo vantaggio, anzi per incrementarlo, deve continuare a correre. Il discorso è elementare: passando a 28 nm quando nVIDIA sta ancora combattendo con i 40 nm, ATi avrà la possibilità di realizzare chip piccoli, economici e più veloci di quello che la cotroparte può mettere in campo indipendentemente dagli sforzi che possa fare. Quindi, prima passa a 28 nm, prima consolida questo vantaggio.

Chi è in vantaggio non dorme sugli allori; sviluppare una nuova architettura richiede tempo e molti soldi (motivo per cui più è longeva meglio è e in questo la scelta di ATi, finora, è stata vincente).

 

quoto... :leggi:

Link to comment
Share on other sites



  • Replies 2.3k
  • Created
  • Last Reply

Top Posters In This Topic

Rv670 era quello che doveva essere in fin dei conti R600 (consumi, pp, etc.), Ati con R600, che tutti gridavano al flop etc. ha dato i suoi frutti ancora adesso con questa nuova serie di schede HD5000.

 

Nvidia con G80 ha preso la strada che ha ripagato nell'immediato, ma adesso le difficoltà che stanno avendo è la dimostrazione lampante di un progetto che non aveva futuro senza notevoli cambiamenti.

 

Se Ati riesce a passare ai 28nm in tempi brevi la vedo ancora più grigia per Nvidia

 

hai perfettamente ragione Gianni...:)

Link to comment
Share on other sites

tra sospesi, bannati e cancellati tra un pò su hwup ci saranno più mod che utenti... :2funny::2funny:

:asd: :asd:

Ma che ci fa, tanto stiamo bene qui (cmq non con molto dispiacere che Halduemilauno non viene mai toccato quando molte volte è lui stesso a generare flame...) :D

 

Cmq dicono che domani, se ho capito bene, dovrebbe esserci un evento, tipo nVidia Editor's Day... sapete mica di cosa si tratta e di cosa si parlerà??

Edited by Rsdj
Link to comment
Share on other sites

E invece G80 è l'architettura superiore, R600 era solo più flessibile con le librerie supportate e basta.

più flessibile con le librerie significa che ATi, per adottare dx10.1 e dx11 non ha dovuto modificare molto poco; al contrario, nVIDIA non ha le dx10.1 (se non su qualche gpu di fascia bassa) e non ha, almomento, ancora le dx11 per cui ha dovuto progettare una nuova architettura in ogni caso. Dal punto di vista dell'azienda, il progetto di ATi è risultato migliore perchè molto più longevo di quello di nVIDIA

 

Nvidia adesso ha problemi perchè ha cambiato architettura, ATi invece non ha fatto altro che il solito die shrink del RV770.

 

nVIDIA è stata costretta a cambiare architettura (e già lo aveva doivuto fare con gt200, anche se in misura minore), non lo ha fatto per libera scelta. E rv870 non è uno shrink di rv770 e, ammesso che lo sia, questo è solo sintomatico della miglior scelta di ATi che con la stessa architettura sta davanti a nVIDIA come prestazioni assolute, come prestazioni per watt e come prestazioni per mm^2.

 

E anche adesso è più questione di processo produttivo che di architettura perchè che fermi sia superiore non ci sono dubbi se solo avesse le giuste freqeunze.

 

qualsiasi chip, avendo le "giuste frequenze", sarebbe superiore a qualunque altro. Il problema è cercare di capire quali siano le giuste frequenze e se e possibile raggiungerle ed a che prezzo.

 

R600 ha favorito una disfatta di ATI 10 volte peggio di questa che sta accadendo ad Nvidia e anche con il derivato rv670 o con rv770. Possiamo dire con assoluta certezza che finchè l'architettura era quella di G80 ATi stava dietro e basta, o di poco o di tanto, stava dietro sempre.

 

 

rv770 sta abbondantemente davanti a g80. Se poi ti riferisci a gt200, basta fare una semplice considerazione: rv770 è 256 mm^2 e gt200 è 496 mm^2 a parità di pp. RV770, qualora non si faccia uso da path dx10.1, risulta, con impostazioni di tipo "qualità" ovvero con i filtri, solo, nel caso peggiore, un 10% medio più lento di gt200 (prendo come riferimento la 4890 e la 285 gtx)

Test: Grafikkarten 2009 (Seite 18) - 31.12.2009 - ComputerBase

 

Con path dx10.1 e deferred rendering (stalker, UE3, ecc) i chip ATi con MSAA 4x guadagnano un 20-25% (e si posizionano abbondantemente davanti a quelli nVIDIA). In più, le prestazioni in DP di ATi sono nettamente superiori a quelle di GT200 (g80 non fa calcoli in DP).

Sinceramente questa netta superiorità (ripeto, con un chip grande quasi il doppio) faccio fatica a vederla.

 

Dal 2006 ad adesso sono quasi 4 anni in cui Nvidia con G80 ha letteralmente spaccato ATi non solo nel mercato ma nel nome, e anche se adesso non c'è storia ATI non è comunque in grado di fare il giusto marketing contro Nvidia e la gente continua a comprare Nvidia anche per la reperibilità o per il prezzo appetibile delle 260 e 275.

in questi anni, a parte i fasti iniziali, ho visto, invece, nVIDIA sempre ad inseguire, non sul piano delle prestazioni (ma deve ringraziare soprattutto chi non ha fatto uso di path dx10.1) quanto su quello dei pp e delle architetture. Non è riuscita a tirare fuori una linea di fascia media e bassa da gt200 sia a 55 che a 65 nm. Ha effettuato continui rebranding e renaming degli stessi chip e sta continuando con la stessa pratica (i chip della serie 3x0 usciti finora sono rebranding di G8x). A chi sostiene che non lo ha fatto per scelta, perchè era sufficiente g80, si può tranquillamente rispondere che è una scelta che si paga cara perchè la produzione di 280, 260, 285 e 275, ha dato luogo a scarti che sono costati (quanto i chip di fascia alta) ma non sono mai stati commercializzati.

Infine, tra i Q2 e il Q3 2009 (quando ancora non era in commercio la serie 5x00 si ATi), nVIDIA ha perso oltre un 7% di market share a vantaggio di AMD e di Intel. Al momento non c'è una vga con chip nVIDIA che sia competitiva, in nessuna fascia di mercato, per prezzo o prestazioni

 

Se il discorso è mettere nel mercato un architettura che giova col passare del tempo R600 è falito in pieno perchè un annata dal 2006 al 2008 è stata troppo pesante, non esiste previsione ottimistica futura che tenga, questo periodo nero di Nvidia è solo una barzelletta rispetto a quello che è accaduto ad ATI e se vogliamo metterla in questo punto meglio fare attenzione perchè Nvidia dietro ad ATI non ci stà volentieri con un progetto da oltre 3 miliardi di transistors e soprattutto non ha 1.5 miliardi di debito.

 

quella di R600 si è rivelata molto longeva, al contrario di quella di g80; questo ha permesso ad ATi di ridurre drasticamente le spese di ricerca e sviluppo visto che ha solo dovuto lavorare sui nuovi pp da adottare e molto poco sull'architetutra del chip. Inoltre, proprio grazie a questa maggiore flessibilità, ha potuto adottare più velocemente le nuove librerie grafiche e i nuovi pp.

Per la cronaca, la divisione chip grafici di AMD è in attivo.

 

 

vorrei ricordare a tutti che Nvidia non ha mercato solo nel desktop, Fermi nasce SOPRATTUTTO per il GPU computing e supercomputer e grafica professionale in quanto è già sicuramente la GPU più veloce in doppia precisione anche con tutto castrato ed è compatibile con la maggior parte dei linguaggi di programmazione adesso, le Tesla hanno un ottimo mercato e si ricava parecchio, idem le quadro.

 

vero; comunque le versioni tesla presentate, in dp sono di poco più veloci di rv870.

E nVIDIA fa molto bene a spingere sul gpgpu perchè se non riesca a spostare l'interesse verso il gp computing su gpu, tra i SoC di AMD e il progetto terascale di Intel rischia di trovarsi a mal partito, considerato che una gpu non potrà mai sosittuire una cpu gp senza snaturarsi

Edited by yossarian
Link to comment
Share on other sites

:asd: :asd:

Ma che ci fa, tanto stiamo bene qui :D

 

Cmq dicono che domani, se ho capito bene, dovrebbe esserci un evento, tipo nVidia Editor's Day... sapete mica di cosa si tratta e di cosa si parlerà??

 

no...non sò nulla mi dispiace...non ci resta che aspettare..:)

 

quoto...stiamo bene qui...poi io non posso stare lontano da Antonio...altrimenti addio 980X... :asd:

Link to comment
Share on other sites

bè non è vero costa sviluppare un nuovo progetto, ATi dovrebbe fermarsi a vendere più pezzi possibile di questa architettura come fece G80, in cui siamo rimasti lì con le 8800 per un sacco di tempo in questo modo Nvidia ha capitalizzato il massimo che poteva con 1 solo progetto. I soldi del progetto li recuperi con le vendite, ovviamente loro hanno una stima di quello che vogliono vendere se superi la stima ben venga, ma è ovvio che se Nvidia fino al 2012 non esce nulla ATI non deve far uscire nulla altrimenti se va avanti come un treno vuol dire che si limita solamente a vendere il minimo indispensabile che hanno previsto e non fa il pieno, così non si guadagna !

 

secondo te perchè ogni casa quando è nel momento d'oro finisce sempre per dormire sugli allori ? non perchè siano stupidi o altro, è normale si fermano e cercano di capitalizzare il più possibile prima di incominciare a spendere per una nuova architettura. Più soldi e meno lavoro.

 

Secondo me il problema di nvidia è stato proprio quello perchè se da un lato il g80 ha rappresentato un gran periodo per nvidia, adesso si trova nella situazione in cui è anche perchè si è si è concentrata troppo su un chip tanto performante ma troppo poco flessibile!

se sul momento il g80 era un chip eccezionale a distanza di qualche anno non permette piu ulteriori aggiornamenti! ati invece con l'R600 ha intrapreso una starda piu a lunga percorrenza che le ha permesso di ammortizzare i costi di produzione e sviluppo(in se già piu bassi rispetto a quelli dei chip nvidia) e di tenere in listino un prodotto competitivo sempre di più!

con questa politica ati è arrivata a offrire dei chip estremamente maturi e testati eliminando negli anni i difetti e valorizzandone i pregi, il tutto ad un costo per l'utente finale tutto sommato contenuto!!!

Ovvio che adesso le serie 5000 vengano venduti a dei prezzi esorbitanti, non essendoci concorrenza! e piu riterderà l'arrivo di nvidia fermi e piu ati manterra i margini di guadagno elevati su queste vga rafforzandosi!!! probabilmente all'arrivo di fermi ati calerà i prezzi del 15-20% e continuerà a vendere a causa del miglior rapporto qualità prezzo, mentre nvidia per essere competitiva nel mercato dovrà probabilmente rinunciare ad avere gli ampi guadagni che per adesso ati si è permessa!!!

 

Rv670 era quello che doveva essere in fin dei conti R600 (consumi, pp, etc.), Ati con R600, che tutti gridavano al flop etc. ha dato i suoi frutti ancora adesso con questa nuova serie di schede HD5000.

 

Nvidia con G80 ha preso la strada che ha ripagato nell'immediato, ma adesso le difficoltà che stanno avendo è la dimostrazione lampante di un progetto che non aveva futuro senza notevoli cambiamenti.

 

Se Ati riesce a passare ai 28nm in tempi brevi la vedo ancora più grigia per Nvidia

 

straquoto! :n2mu:

Link to comment
Share on other sites

più flessibile con le librerie significa che ATi, per adottare dx10.1 e dx11 non ha dovuto modificare molto poco; al contrario, nVIDIA non ha le dx10.1 (se non su qualche gpu di fascia bassa) e non ha, almomento, ancora le dx11 per cui ha dovuto progettare una nuova architettura in ogni caso. Dal punto di vista dell'azienda, il progetto di ATi è risultato migliore perchè molto più longevo di quello di nVIDIA

 

 

 

nVIDIA è stata costretta a cambiare architettura (e già lo aveva doivuto fare con gt200, anche se in misura minore), non lo ha fatto per libera scelta. E rv870 non è uno shrink di rv770 e, ammesso che lo sia, questo è solo sintomatico della miglior scelta di ATi che con la stessa architettura sta davanti a nVIDIA come prestazioni assolute, come prestazioni per watt e come prestazioni per mm^2.

 

 

 

qualsiasi chip, avendo le "giuste frequenze", sarebbe superiore a qualunque altro. Il problema è cercare di capire quali siano le giuste frequenze e se e possibile raggiungerle ed a che prezzo.

 

 

 

rv770 sta abbondantemente davanti a g80. Se poi ti riferisci a gt200, basta fare una semplice considerazione: rv770 è 256 mm^2 e gt200 è 496 mm^2 a parità di pp. RV770, qualora non si faccia uso da path dx10.1, risulta, con impostazioni di tipo "qualità" ovvero con i filtri, solo, nel caso peggiore, un 10% medio più lento di gt200 (prendo come riferimento la 4890 e la 285 gtx)

Test: Grafikkarten 2009 (Seite 18) - 31.12.2009 - ComputerBase

 

Con path dx10.1 e deferred rendering (stalker, UE3, ecc) i chip ATi con MSAA 4x guadagnano un 20-25% (e si posizionano abbondantemente davanti a quelli nVIDIA). In più, le prestazioni in DP di ATi sono nettamente superiori a quelle di GT200 (g80 non fa calcoli in DP).

Sinceramente questa netta superiorità (ripeto, con un chip grande quasi il doppio) faccio fatica a vederla.

 

 

in questi ani, a parte i fasti iniziali, ho visto, invece, nVIDIA sempre ad inseguire, non sul piano delle prestazioni (ma deve ringraziare soprattutto chi non ha fatto uso di path dx10.1) quanto su quello dei pp e delle architetture. Non è riuscita a tirare fuori una linea di fascia media e bassa da gt200 sia a 55 che a 65 nm. Ha effettuato continui rebranding e renaming degli stessi chip e sta continuanando con la stessa pratica (i chip della serie 3x0 usciti finora sono rebranding di G8x). A chi sostiene che non lo ha fatto per scelta, perchè era sufficiente g80, si può tranquillamente rispondere che è una scelta che si paga cara perchè la produzione di 280, 260, 285 e 275, ha dato luogo a scarti che sono costati (quanto i chip di fascia alta) ma non sono mai stati commercializzati.

Infine, tra i Q2 e il Q3 2009 (quando ancora non era in commercio la serie 5x00 si ATi), nVIDIA ha perso oltre un 7% di market share a vantaggio di AMD e di Intel. Al momento non c'è una vga con chip nVIDIA che sia competitiva, in nessuna fascia di mercato, per prezzo o prestazioni

 

 

 

al contrario, quella di R600 si è rivelata molto longeva, al cpntrario di quella di g80; questo ha permesso ad ATi di ridurre drasticamente le spese di ricerca e sviluppo visto che ha solo dovuto lavorare sui nuovi pp da adottare e molto poco sull'architetutra del chip. Inoltre, proprio grazie a questa maggiore flessibilità, ha potuto adottare più velocemente le nuove librerie grafiche e i nuovi pp.

Per la cronaca, la divisione chip grafici di AMD è in attivo.

 

 

 

vero; comunque le versioni tesla presentate, in dp sono di poco più veloci di rv870.

E nVIDIA fa molto bene a spingere sul gpgpu perchè se non riesca a spostare l'interesse verso il gp computing su gpu, perchè tra i SoC di AMD e il progetto terascale di Intel rischia di trovarsi a mal partito, considerato che una gpu non potrà mai sosittuire una cpu gp senza snaturarsi

 

azz Stefano...che post...:ave:

 

p.s. consiglio: edita quel "niubbo" sotto al nickname...veramente non ti si addice neanche un pochino...:asd:

Link to comment
Share on other sites

più flessibile con le librerie significa che ATi, per adottare dx10.1 e dx11 non ha dovuto modificare molto poco; al contrario, nVIDIA non ha le dx10.1 (se non su qualche gpu di fascia bassa) e non ha, almomento, ancora le dx11 per cui ha dovuto progettare una nuova architettura in ogni caso. Dal punto di vista dell'azienda, il progetto di ATi è risultato migliore perchè molto più longevo di quello di nVIDIA

 

 

 

nVIDIA è stata costretta a cambiare architettura (e già lo aveva doivuto fare con gt200, anche se in misura minore), non lo ha fatto per libera scelta. E rv870 non è uno shrink di rv770 e, ammesso che lo sia, questo è solo sintomatico della miglior scelta di ATi che con la stessa architettura sta davanti a nVIDIA come prestazioni assolute, come prestazioni per watt e come prestazioni per mm^2.

 

 

 

qualsiasi chip, avendo le "giuste frequenze", sarebbe superiore a qualunque altro. Il problema è cercare di capire quali siano le giuste frequenze e se e possibile raggiungerle ed a che prezzo.

 

 

 

rv770 sta abbondantemente davanti a g80. Se poi ti riferisci a gt200, basta fare una semplice considerazione: rv770 è 256 mm^2 e gt200 è 496 mm^2 a parità di pp. RV770, qualora non si faccia uso da path dx10.1, risulta, con impostazioni di tipo "qualità" ovvero con i filtri, solo, nel caso peggiore, un 10% medio più lento di gt200 (prendo come riferimento la 4890 e la 285 gtx)

Test: Grafikkarten 2009 (Seite 18) - 31.12.2009 - ComputerBase

 

Con path dx10.1 e deferred rendering (stalker, UE3, ecc) i chip ATi con MSAA 4x guadagnano un 20-25% (e si posizionano abbondantemente davanti a quelli nVIDIA). In più, le prestazioni in DP di ATi sono nettamente superiori a quelle di GT200 (g80 non fa calcoli in DP).

Sinceramente questa netta superiorità (ripeto, con un chip grande quasi il doppio) faccio fatica a vederla.

 

 

in questi anni, a parte i fasti iniziali, ho visto, invece, nVIDIA sempre ad inseguire, non sul piano delle prestazioni (ma deve ringraziare soprattutto chi non ha fatto uso di path dx10.1) quanto su quello dei pp e delle architetture. Non è riuscita a tirare fuori una linea di fascia media e bassa da gt200 sia a 55 che a 65 nm. Ha effettuato continui rebranding e renaming degli stessi chip e sta continuanando con la stessa pratica (i chip della serie 3x0 usciti finora sono rebranding di G8x). A chi sostiene che non lo ha fatto per scelta, perchè era sufficiente g80, si può tranquillamente rispondere che è una scelta che si paga cara perchè la produzione di 280, 260, 285 e 275, ha dato luogo a scarti che sono costati (quanto i chip di fascia alta) ma non sono mai stati commercializzati.

Infine, tra i Q2 e il Q3 2009 (quando ancora non era in commercio la serie 5x00 si ATi), nVIDIA ha perso oltre un 7% di market share a vantaggio di AMD e di Intel. Al momento non c'è una vga con chip nVIDIA che sia competitiva, in nessuna fascia di mercato, per prezzo o prestazioni

 

 

 

al contrario, quella di R600 si è rivelata molto longeva, al cpntrario di quella di g80; questo ha permesso ad ATi di ridurre drasticamente le spese di ricerca e sviluppo visto che ha solo dovuto lavorare sui nuovi pp da adottare e molto poco sull'architetutra del chip. Inoltre, proprio grazie a questa maggiore flessibilità, ha potuto adottare più velocemente le nuove librerie grafiche e i nuovi pp.

Per la cronaca, la divisione chip grafici di AMD è in attivo.

 

 

 

vero; comunque le versioni tesla presentate, in dp sono di poco più veloci di rv870.

E nVIDIA fa molto bene a spingere sul gpgpu perchè se non riesca a spostare l'interesse verso il gp computing su gpu, perchè tra i SoC di AMD e il progetto terascale di Intel rischia di trovarsi a mal partito, considerato che una gpu non potrà mai sosittuire una cpu gp senza snaturarsi

 

 

Quotone per yossarian... penso che con questo post hai chiarito le idee di chi le aveva confuse!!! ottima spiegazione!!!

Link to comment
Share on other sites

Da Xbit

 

Nvidia’s Next-Generation Graphics Processor in Volume Production – Company. Nvidia GF100 Graphics Chip Finally In Mass Production

 

 

Nvidia?s Next-Generation Graphics Processor in Volume Production ? Company - X-bit labs

 

 

Uno stralcio

"The leading supplier of graphics processors has reportedly notified its partners that it would officially launch the GeForce “GF100” graphics chip in March ’10, according to a previous media report. In addition, Nvidia plans to release a rather mysterious code-named GF104 chip in Q2 2010. The GF104 graphics processing unit will target the high-end market, according to the media report."

Link to comment
Share on other sites

nooooooooooooo.... :uglystupid2:

 

 

Ste...tu sai qualcosa di questo "evento" nvidia del 12 gennaio??? :cheazz:

 

no, però potrebbe avere a che fare con la news riportata qui sotto

 

Da Xbit

 

Nvidia’s Next-Generation Graphics Processor in Volume Production – Company. Nvidia GF100 Graphics Chip Finally In Mass Production

 

 

Nvidia?s Next-Generation Graphics Processor in Volume Production ? Company - X-bit labs

 

 

Uno stralcio

"The leading supplier of graphics processors has reportedly notified its partners that it would officially launch the GeForce “GF100” graphics chip in March ’10, according to a previous media report. In addition, Nvidia plans to release a rather mysterious code-named GF104 chip in Q2 2010. The GF104 graphics processing unit will target the high-end market, according to the media report."

 

se è confermata la presentazione il 10 marzo, allora entro i prossimi 20-30 giorni si avranno le informazioni mancanti (frequenze architettura delle tmu e delle rop's).

Se la gf104 dovesse essere la gpu high end, allora sarebbe confermata la mia ipotesi su gf100 con numero ridotto di alu e gf104 (a tiratura limitata) per la fascia alta in un secondo tempo.

Edited by yossarian
Link to comment
Share on other sites

Da Xbit

 

Nvidia’s Next-Generation Graphics Processor in Volume Production – Company. Nvidia GF100 Graphics Chip Finally In Mass Production

 

 

Nvidia?s Next-Generation Graphics Processor in Volume Production ? Company - X-bit labs

 

 

Uno stralcio

"The leading supplier of graphics processors has reportedly notified its partners that it would officially launch the GeForce “GF100” graphics chip in March ’10, according to a previous media report. In addition, Nvidia plans to release a rather mysterious code-named GF104 chip in Q2 2010. The GF104 graphics processing unit will target the high-end market, according to the media report."

 

 

quindi se non ho capito male, il ceo nvidia ha detto che sono in produzione solo i chip gf100, ma non le vga? anche perchè al ces i dissipatori dicevano che non erano ancora pronti!!!!

 

Ma se hanno risolto i problemi, come mai al ces di las vegas che era uno scenario ottimo per presentarle e bloccare o per lo meno limitare le vendite della concorrenza non l'hanno fatto? li hanno risolti stamattina i problemi?:cheazz:

 

bisognerà cmq aspettare il q2 2010 pe vedere il gf104 se non ho capito male, e questo chip rappresenterà la fascia alta di vga nvidia, quindi di cosa si parla? di dualgpu o di gpu non castrate? questo ancora non l'ho capito!!!!:muro:

 

Cmq a me sembra paradossale che dopo qualche giorno dall'apertura del ces da dove è emerso tutto ciò che di negativo poteva venire fuori su fermi si dica che la produzione è già avviata!!! io pensavo che per lo meno dovessero affinare il progetto con un ulteriore revisione dei chip prima di metterli sul mercato.... non vorrei che si stiano facendo le cose troppo di fretta (per modo di dire visti i 6 mesi diritardo:asd:)!

 

qualcuno riesce a chiarirmi le idee?

Link to comment
Share on other sites

Da Xbit

 

Nvidia’s Next-Generation Graphics Processor in Volume Production – Company. Nvidia GF100 Graphics Chip Finally In Mass Production

 

 

Nvidia?s Next-Generation Graphics Processor in Volume Production ? Company - X-bit labs

 

 

Uno stralcio

"The leading supplier of graphics processors has reportedly notified its partners that it would officially launch the GeForce “GF100” graphics chip in March ’10, according to a previous media report. In addition, Nvidia plans to release a rather mysterious code-named GF104 chip in Q2 2010. The GF104 graphics processing unit will target the high-end market, according to the media report."

Bene bene, anche se non ho capito se si tratta ancora di rumors o se c'è qualcosa di ufficiale...

Link to comment
Share on other sites

Bene bene, anche se non ho capito se si tratta ancora di rumors o se c'è qualcosa di ufficiale...

 

parla di voci riportate dai partner commerciali, quindi anche se non sono ufficiali sono, comunque, abbastanza attendibili (anche se la news dice "dovrebbero" e non lo da ancora per certo). Speriamo sia la volta buona

Edited by yossarian
Link to comment
Share on other sites

parla di voci riportate dai partner commerciali, quindi anche se non sono ufficiali sono, comunque, abbastanza attendibili (anche se la news dice "dovrebbero" e non lo da ancora per certo). Speriamo sia la volta buona

Ho notato che la news è del 08/01/2010 quindi cmq non di ultimissima ora... quindi se la presentazione della vga è per il 10 marzo massimo tra un mese si dovrebbe sapere tutto o sbaglio? Se si dovesse trattare della versione castrata con le specifiche da te elencate più o meno si può fare una stima di come andrebbe??

Link to comment
Share on other sites

Ho notato che la news è del 08/01/2010 quindi cmq non di ultimissima ora... quindi se la presentazione della vga è per il 10 marzo massimo tra un mese si dovrebbe sapere tutto o sbaglio? Se si dovesse trattare della versione castrata con le specifiche da te elencate più o meno si può fare una stima di come andrebbe??

 

dipende dalle frequenze definitive. Con quelle della tesla, ad esempio, sta sotto ad una 5870.

Link to comment
Share on other sites

no, non ci si avvicina neppure

Ho capito, quindi dovrei aver fatto bene a prendere la 5970, anche perchè overcloccandola bene si dovrebbe distaccare ancora di più dalle future Fermi... invece riguardo la dual gpu Fermi, contando anche sulle recenti news, credi sia possibile vederla nei nostri case?

Link to comment
Share on other sites

no, non ci si avvicina neppure

 

 

ma quindi tutti quelli che ipotizzavano che nvidia sarebbe andata ben piu forte di ati 5870, considerando anche i 5-6 mesi di ritardo si sbagliavano?

Si parlava di superiorità di nvidia del 20/30% su 5870....queste percentuali almeno coincidono considerando la versione non castrata del gf100?

Link to comment
Share on other sites

Guest
This topic is now closed to further replies.

×
×
  • Create New...