Jump to content

Aspettando Fermi ......


Achille GForce

Recommended Posts

  • Replies 2.3k
  • Created
  • Last Reply

Top Posters In This Topic

Gianni...te lo dico in amicizia...se qualcuno di la mi attacca....faccio un putiferio!:asd:

 

 

Gianni nn ha ancora intuito che quando mi banna mi fa un favore! ovverosia evita il mio ban definitivo da hwupgrade!

 

 

 

prezzi bassi ? è così difficile pensare che Nvidia potrebbe vendere la top di gamma nuova uguale o meno della 5970 ? :asd:

 

Nvidia non ha un debito potrebbe anche vendere con margine di guadagno 0 sulla fascia alta, salva almeno la quaota di mercato, la GT200 vende ancora bene ovvio che le facciano pagare.

 

magari con un po' di fortuna potrebbe anche trovarsi una 360 a meno di 400.

 

 

Sei ironico O_o?!

 

la 380 al prezzo della 5970 nn ha veramente senso si esistere, così come 400 per la 360 (sempre citandomi, nn ho capito se eri ironico scusa :asd:)

 

nvidia probabilmente uscirà avendo il primato delle prestazioni, sul margine nn mi pronuncio, evitando di misurare il ritardo di uscita e quindi sul fatto che era obbligata ad avere prestazioni superiori

 

ma a scapito di temperature di esercizio e consumi presumo elevati (per cui presumo che il livello di overclokkabilità sarà decisamente limitato se nn forse sconsigliato)

 

a livello prestazionale e di costi a prescindere probabilmente ati sarà da preferire alla controparte, sia al consumo (da nn sottovalutare) che all'overclock

Link to comment
Share on other sites

Complimenti!....sei Moderatore!:clapclap:

 

 

Finalmente era ora!:asd:

Allora complimenti caro Luca!!! :briai:

 

Lo so che era ora Antò, però la cosa che mi preoccupa è che se non fosse veramente colpa della gpu sarebbero caxxi!! :muro:

Link to comment
Share on other sites

Complimenti!....sei Moderatore!:clapclap:

 

 

:briai:

 

 

 

io so solo che una scheda deve avere mercato per esserci inserita nei listini.

si adegueranno per quanto possono.

 

comunque io prenderò ATi visto che a me personalmente non piace prendere un Nvidia non di successo.

 

 

ma se nvidia andasse un poco meno, ma costasse meno perché nn prenderla?! :cheazz:

Link to comment
Share on other sites

Una GPU come molti dicono che consumerà ben 300 watt nn può assolutamente vedere un dual GPU, a meno che, come dice yoss da novembre, nn abbassino sia shader che frequenze al punto tale da castrare la GPU sotto i 200 watt a chip (che cmq sarebbe molto molto al limite)

 

Che non è tanto diverso dal gioco che è stato fatto sulla 5970!

Essa infatti monta i chip delle 5870, ma di fabbrica esce con le frequenze della 5850! così è stata pubblicizzata come una dual gpu dai bassi consumi e dall'oc spinto! In ati hanno preso due piccioni con una fava equipaggiando la 5970 con un ottimo dissi adatto anche a salire le frequenze dei chip! in questo modo ci si accaparra 2 fasce di clientela:

 

- chi overclocca le vga e vuole il massimo fregandosene dei consumi!

- chi vuole il top di prestazioni e guarda anche i consumi!

 

Si e no, lo SLI scala meglio del xFire è probabile che cmq si prenda una 5970 ma se come avevo ipotizzato si pensionasse la 5970 in favore della 5990 allora a questo punto Nvidia nn avrebbe nessuna leadership ne durante l'attuale seria 5000 di ATI e nemmeno con l'imminente 6000 (imminente dall'uscita di Fermi, sia chiaro e alla fine 7 o 8 mesi passano veloci)

 

forse lo SLi andava meglio rispetto all'Xfire delle ati 4xxx(sottolineoil forse)... adesso con le 5XXX non è piu così! ricordo ancora che nei primi test fatti all'uscita della 5870, fecero anche i paragoni tra sli di 295 e un crossfire di 5870! bene nonostante i driver ati fossero alla prima realise e quindi non maturi come quelli delle 295, le 5870 in cross mettevano un altra marcia quando lavoravano in crossfire!

 

confronto2955870.png

58it1y.png

 

adesso non so questi bench quanto siano veritieri, ma se cerchi online vedrai che ce ne sono tanti e affidabili!

 

si guarda...è anche la mia impressione venendo da un quad sli di 295 e passando ad un crossfireX di 5970...il crossfire lavora davvero molto bene...:)

 

quoto, ma non è sempre stato così, inizialmente il crossfire era indietro, con la serie 5xxx è cambiato parecchio!!!!

 

P.S: complimenti Delly per la tua nuova carica!!!

Link to comment
Share on other sites

Allora complimenti caro Luca!!! :briai:

 

Lo so che era ora Antò, però la cosa che mi preoccupa è che se non fosse veramente colpa della gpu sarebbero caxxi!! :muro:

 

eh già...quello lo scopriremo quando avrai la scheda nuova...poi al limite bisogna mettersi li e scovare il vero problema in caso...

 

tu per caso avevi fatto una prova con tutto a def (cpu, mem, vga) per vedere se cambiava qualcosa???

Link to comment
Share on other sites

ma se nvidia andasse un poco meno, ma costasse meno perché nn prenderla?! :cheazz:

 

se costasse meno anche sacrificando qualcosina in prestazioni...ed il consumo/calore fosse cmq mantenuto a buoni livelli non ci vedrei nulla di male a comprarla...ci mancherebbe altro...

Link to comment
Share on other sites

Complimenti!....sei Moderatore!:clapclap:

 

ehi Jen...ma un moderatore può bannare un "super moderatore" come te??? :2funny::2funny:

 

perchè qui la GTX380 che mi dovevi mandare ancora non si è vista...:muro:

sarei quasi tentato di farti fuori...(ma forse meglio di no...altrimenti addio 980X)...:asd:

Link to comment
Share on other sites

eh già...quello lo scopriremo quando avrai la scheda nuova...poi al limite bisogna mettersi li e scovare il vero problema in caso...

 

tu per caso avevi fatto una prova con tutto a def (cpu, mem, vga) per vedere se cambiava qualcosa???

Si avevo provato ma non cambiava nulla, stesso problema :(

 

giustamente per altro

 

scusate se è già stato postato, ma nn mi sembra

 

Fermi die means high Nvidia silicon costs ahead | TG Daily

Interessande quella parte dove parla degli FPS... se non ho capito male in un demo fatto da nVidia composta da fumo e specchi, GF100 farebbe 80 FPS e la 5970 89 FPS?

Link to comment
Share on other sites

i problemi con alcuni titoli per via dell'incompatibilità totale o semplicemnte penalizzazione voluta dalle SH o problemi di driver più freqeunti non sono valutati ?

 

Nvidia paga per avere i vantaggi, non esiste un pregiudizio per via della GPU migliore o non, comunque dopo marzo Nvidia fermi per me sarà il chip più veloce anche perchè è impossibile che non lo sia, una spesa del genere se non fosse in grado di lanciare il marketing è al quanto poco sensato lanciarle nel mercato tanto vale a quel punto scartarle e saltare la generazione posticipare epassare subito alla revisione.

 

 

Assodato che nessun driver è perfetto quando con un gioco pro Nvidia nn posso abilitare qualcosa c'è sicuramente un altro modo per farlo.

Cmq invece per l'operazione Simpatia attuata da Nvidia su ATI vorrei ricordati che ha l'anti-trust sul collo ;)

 

@delly: Complimenti ;)

Link to comment
Share on other sites

Si avevo provato ma non cambiava nulla, stesso problema :(

 

 

Interessande quella parte dove parla degli FPS... se non ho capito male in un demo fatto da nVidia composta da fumo e specchi, GF100 farebbe 80 FPS e la 5970 89 FPS?

 

 

non gli do per nulla peso a questa cosa, perchè :

 

- se è una demo fatta da nvidia, non ci vuole molto a creare un programma che valorizzi al massimo il tuo hw! magari sfrutta qualche tipo di calcolo in cui l'architettura del gf100 va meglio, ma questo non significa che in gaming le cose siano uguali!

 

- non è speificato nulla, neppure la risoluzione al quale ha girato... sappiamo tutti che le 5970 danno il meglio nelle altissime risoluzioni!

 

- finche non vedo fermi lavorare non crederò a nessun numero letto online, dopo tutti i fake usciti e la scheda video finta presentata dal ceo nvidia, per me l'azienda ha perso di credibilità!

 

secondo quella notizia, quando ati venderà la 5970 sotto i 600$ guadagerà cmq il 70%! questo la dice lunga su quanto ati ha ottimizzato i costi di produzione e sviluppo....sempre ammesso che il dato sia attendibile!

Edited by nick.sf
Link to comment
Share on other sites

non gli do per nulla peso a questa cosa, perchè :

 

- se è una demo fatta da nvidia, non ci vuole molto a creare un programma che valorizzi al massimo il tuo hw! magari sfrutta qualche tipo di calcolo in cui l'architettura del gf100 va meglio, ma questo non significa che in gaming le cose siano uguali!

 

- non è speificato nulla, neppure la risoluzione al quale ha girato... sappiamo tutti che le 5970 danno il meglio nelle altissime risoluzioni!

 

- finche non vedo fermi lavorare non crederò a nessun numero letto online, dopo tutti i fake usciti e la scheda video finta presentata dal ceo nvidia, per me l'azienda ha perso di credibilità!

 

secondo quella notizia, quando ati venderà la 5970 sotto i 600$ guadagerà cmq il 70%! questo la dice lunga su quanto ati ha ottimizzato i costi di produzione e sviluppo....sempre ammesso che il dato sia attendibile!

La penso proprio come te, quoto alla grande!! O0

Link to comment
Share on other sites

Fermi die means high Nvidia silicon costs ahead | TG Daily

 

Fermi die means high Nvidia silicon costs ahead

 

There are some benchmarks. Or some Powerpoint slides. As TG Daily reported earlier, Nvidia flew in a gaggle of European journalists just when CES was all done and dusted, to brief them on Fermi, expected to be formally announced on Sunday week, January 17.

 

Nvidia's media strategy is pretty interesting - it didn't want to raise Fermi expectations ahead of and during CES - people might say awful things like it's delayed or something.

 

But industry sources close to Nvidia's plans claim to have the lowdown on the low profile briefings.

 

While some have said that foundries such as TSMC have let down Nvidia, the industry sources say that the low yields are not entirely due to the Taiwanese company, but quite a lot to do with the large die Fermi is yielding.

 

The sources claim that the cost of silicon alone will make it pretty hard for Nvidia to compete with AMD on its so-called Hemlock product, with yields something around 20 percent or so.

 

This would mean that Nvidia would probably lose money just on the silicon alone - it's reputed that the Powerpoint slide that journalists were shown on Sunday in Las Vegas quoted an 80 FPS on just one benchmark, with no actual demo being showed.

 

The same sources suggest that Hemlock will trip the light fantastic at 89 FPS - but then to see is to believe. It's all a game of smoke and mirrors.

 

Nvidia can't make a card based on these low yields at $500 a card, otherwise they'd be losing money - it would have to be a $600 card. The channel reckons AMD's thing will be under $600 and that its yields are something like 70 percent.

 

What gives? Needless to say, neither paranoid AMD nor ultra-paranoid Nvidia will comment on unannounced benchmarks.

Link to comment
Share on other sites

Schede Nvidia Fermi, prezzi alle stelle? - Tom's Hardware

 

Il tutto s'incastra in un quadro che vedrebbe la scheda a singola GPU Fermi più veloce di una HD 5870 del 20%, ma più lenta della HD 5970. Nvidia, vista la situazione (si parla anche di eccessivo surriscaldamento), potrebbe essere costretta a vendere la scheda in perdita per competere più efficacemente sul mercato

Link to comment
Share on other sites

Fermi die means high Nvidia silicon costs ahead | TG Daily

 

Fermi die means high Nvidia silicon costs ahead

 

There are some benchmarks. Or some Powerpoint slides. As TG Daily reported earlier, Nvidia flew in a gaggle of European journalists just when CES was all done and dusted, to brief them on Fermi, expected to be formally announced on Sunday week, January 17.

 

Nvidia's media strategy is pretty interesting - it didn't want to raise Fermi expectations ahead of and during CES - people might say awful things like it's delayed or something.

 

But industry sources close to Nvidia's plans claim to have the lowdown on the low profile briefings.

 

While some have said that foundries such as TSMC have let down Nvidia, the industry sources say that the low yields are not entirely due to the Taiwanese company, but quite a lot to do with the large die Fermi is yielding.

 

The sources claim that the cost of silicon alone will make it pretty hard for Nvidia to compete with AMD on its so-called Hemlock product, with yields something around 20 percent or so.

 

This would mean that Nvidia would probably lose money just on the silicon alone - it's reputed that the Powerpoint slide that journalists were shown on Sunday in Las Vegas quoted an 80 FPS on just one benchmark, with no actual demo being showed.

 

The same sources suggest that Hemlock will trip the light fantastic at 89 FPS - but then to see is to believe. It's all a game of smoke and mirrors.

 

Nvidia can't make a card based on these low yields at $500 a card, otherwise they'd be losing money - it would have to be a $600 card. The channel reckons AMD's thing will be under $600 and that its yields are something like 70 percent.

 

What gives? Needless to say, neither paranoid AMD nor ultra-paranoid Nvidia will comment on unannounced benchmarks.

 

Quindi dal benchmark Nvidia è risultata vicina a Hemlock :angel: I 512 stream allora ci sono !

 

E potrebbe vendere in perdita per rimanere competitiva ? l'avevo detto io che sarebbe stato così, la fascia alta vende poco quindi le perdite potrebbero essere accettabili in attesa di un miglioramento della resa visto che perderebbe da una parte ma permetterebbe di guadagnare dall'altra con le altre fasce O0 Sono curioso di vedere la GT 360, a sto punto dovrebbe essere più veloce della 5870 di qualche punto percentuale, se costa meno di 400€ la compro !

 

 

20% più veloce di 5870 quindi è un po' come la differenza fra la 5770 e la 5850 ? bè we spacca ! Se riescono a montarci un dissipatore stock con i controcavoli potrebbero anche farcela.

 

 

Una domanda : ma il GF104 a questo punto potrebbe essere al posto del dual GPU, una revisione di GF100 sul fronte calore consumi e resa che poi dovrebbe anche permettere il dual GPU ? Tipo il passaggio da GT200 a GT200B.

Se è così e riesce a mettere sul mercato il tutto prima d'estate potrebbero rimanere in carreggiata e magari passare ad un nuovo processo produttivo l'anno prossimo mantenendo la stessa architettura mentre ATI ne fa una nuova.

Edited by Achille GForce
Link to comment
Share on other sites

non è strettamente correlata con Fermi, ma fa capire quanto la situazione potrebbe essere difficile in termini di rese rispetto ad ATI, però non è detto che non si avvantaggi anche Fermi

 

Foundry chipmakers see yields for 40nm production below 70%

 

Foundry chipmakers, including Taiwan Semiconductor Manufacturing Company (TSMC), have been struggling to increase their yields on 40nm to over 70%, according to industry sources. The unsatisfactory yield rate has caused production for next-generation graphics processors and FPGA (field-programmable gate array) chips to run tight.

 

TSMC, at its last investors conference, revealed that chamber matching problems had impacted yield rates for its 40nm node. It said the problems could be solved by the end of 2009.

 

Clients using TSMC's 40nm node include GPU vendors AMD and Nvidia, and FPGA chip supplier Altera.

 

United Microelectronics Corporation (UMC) is also working with customers to volume produce 40nm products at its 12-inch (300mm) fabs. The sources claimed that FPGA chipmaker Xilinx, which has placed orders for 40nm-generation products with the foundry partner, has also moved to diversify its production sources to minimize the risk of shipment delays.

 

Samsung Electronics earlier announced it has been selected as one of Xilinx' foundry partners for next-generation FPGA manufacturing.

Link to comment
Share on other sites

non è strettamente correlata con Fermi, ma fa capire quanto la situazione potrebbe essere difficile in termini di rese rispetto ad ATI, però non è detto che non si avvantaggi anche Fermi

 

Foundry chipmakers see yields for 40nm production below 70%

 

Foundry chipmakers, including Taiwan Semiconductor Manufacturing Company (TSMC), have been struggling to increase their yields on 40nm to over 70%, according to industry sources. The unsatisfactory yield rate has caused production for next-generation graphics processors and FPGA (field-programmable gate array) chips to run tight.

 

TSMC, at its last investors conference, revealed that chamber matching problems had impacted yield rates for its 40nm node. It said the problems could be solved by the end of 2009.

 

Clients using TSMC's 40nm node include GPU vendors AMD and Nvidia, and FPGA chip supplier Altera.

 

United Microelectronics Corporation (UMC) is also working with customers to volume produce 40nm products at its 12-inch (300mm) fabs. The sources claimed that FPGA chipmaker Xilinx, which has placed orders for 40nm-generation products with the foundry partner, has also moved to diversify its production sources to minimize the risk of shipment delays.

 

Samsung Electronics earlier announced it has been selected as one of Xilinx' foundry partners for next-generation FPGA manufacturing.

 

 

gianni traduci a parole tue o fai una sinstesi di poche righe.

Link to comment
Share on other sites

Quindi dal benchmark Nvidia è risultata vicina a Hemlock :angel: I 512 stream allora ci sono !

 

E potrebbe vendere in perdita per rimanere competitiva ? l'avevo detto io che sarebbe stato così, la fascia alta vende poco quindi le perdite potrebbero essere accettabili in attesa di un miglioramento della resa visto che perderebbe da una parte ma permetterebbe di guadagnare dall'altra con le altre fasce O0 Sono curioso di vedere la GT 360, se costa meno di 400€ la compro !

 

 

20% più veloce di 5870 quindi è un po' come la differenza fra la 5770 e la 5850 ? bè we spacca ! Se riescono a montarci un dissipatore stock con i controcavoli potrebbero anche farcela.

 

 

Una domanda : ma il GF104 a questo punto potrebbe essere al posto del dual GPU, una revisione di GF100 sul fronte calore consumi e resa che poi dovrebbe anche permettere il dual GPU ? Tipo il passaggio da GT200 a GT200B.

Se è così e riesce a mettere sul mercato il tutto prima d'estate potrebbero rimanere in carreggiata e magari passare ad un nuovo processo produttivo l'anno prossimo mantenendo la stessa architettura mentre ATI ne fa una nuova.

ma possiible che ancora non si parli di consumi? E non hanno neanche fatto vedere una demo...mah... quoto l'articolo quando dice:"It's all a game of smoke and mirrors."

Link to comment
Share on other sites

non è strettamente correlata con Fermi, ma fa capire quanto la situazione potrebbe essere difficile in termini di rese rispetto ad ATI, però non è detto che non si avvantaggi anche Fermi

 

Foundry chipmakers see yields for 40nm production below 70%

 

Foundry chipmakers, including Taiwan Semiconductor Manufacturing Company (TSMC), have been struggling to increase their yields on 40nm to over 70%, according to industry sources. The unsatisfactory yield rate has caused production for next-generation graphics processors and FPGA (field-programmable gate array) chips to run tight.

 

TSMC, at its last investors conference, revealed that chamber matching problems had impacted yield rates for its 40nm node. It said the problems could be solved by the end of 2009.

 

Clients using TSMC's 40nm node include GPU vendors AMD and Nvidia, and FPGA chip supplier Altera.

 

United Microelectronics Corporation (UMC) is also working with customers to volume produce 40nm products at its 12-inch (300mm) fabs. The sources claimed that FPGA chipmaker Xilinx, which has placed orders for 40nm-generation products with the foundry partner, has also moved to diversify its production sources to minimize the risk of shipment delays.

 

Samsung Electronics earlier announced it has been selected as one of Xilinx' foundry partners for next-generation FPGA manufacturing.

Questo spiegherebbe il ritardo, ma sarebbe la sola causa? penso di no...

Link to comment
Share on other sites

ma possiible che ancora non si parli di consumi? E non hanno neanche fatto vedere una demo...mah... quoto l'articolo quando dice:"It's all a game of smoke and mirrors."

 

mmh...mi sa che almeno fino a marzo si saprà poco o nulla di preciso...se non i soliti rumors (da prendere cmq con le pinze)...

 

speriamo solo che alla nvidia abbiano un'occhio di riguardo anche al consumo/calore oltre che cmq al rapporto prezzo/prestazioni...perchè se anche andasse quel 20/30% in più della 5870 ma sarebbe un forno e costasse uguale o di più..uno preferirebbe cmq la radeon...o almeno...io la preferirei senza ombra di dubbio...

Link to comment
Share on other sites

Guest
This topic is now closed to further replies.

×
×
  • Create New...