Jump to content

Gf104, gf106, gf108


Ratatosk

Recommended Posts

Visto che non c'è un thread dedicato riporto questa notizia, da fonte che si è confermata molto attendibile su nVIDIA negli ultimi tempi. Estraggo i punti salienti per comodità, per leggere tutto c'è il link in fondo:

 

[...] the architecture [...] hasn't been changed much.

 

[...]

 

Since GF100 is quite modular, it can be cut into four parts easily, that is exactly what happened. No shrinks, no updates, and no better chance of economic viability until TSMC comes through with 28nm wafers in mid-2011. Maybe. The magic 8-ball of semiconductor process tech just laughed when asked if 28nm would be on time.

 

[...]

 

The new dice are 3/4s of a GF100 for the GF104, 1/2 GF100 for the GF106, and 1/4 GF100 for the GF108. Using a bit of math brings us the GF104 with 384 shaders and a 256 bit memory bus, GF106 has 256 shaders and a 192 bit bus, and GF108 has 128 shaders and a 128 bit bus.

 

[...]

 

Word has it that Nvidia is basically adding a bit of pixel fill capacity to make it competitive on DX10 performance [...] Performance of GF10x is said to be very close to GF100 on a per-shader basis, and a bit better than GF100 on older games.

 

[...]

 

It looks like the initial GF104s are going to have at least one block of 32 shaders disabled if not two.

 

[...]

 

When will they be coming out? Originally, the GF104 was slated for a Computex launch, but that didn't happen. Contrary to rumors started by people not actually at the show (si riferisce a Theo Valich, NdRatatosk), there were no GF104s at Computex, and partners had not received samples yet. This means launch slipped from June to mid-July at the earliest, maybe later.

 

GF106 was supposed to launch about the same time as GF104, so it may be out at the same time as well. GF108 originally had an August launch, but that slipped a month as well to September.

 

[...]

 

SemiAccurate :: What are Nvidia's GF104, GF106 and GF108?

Link to comment
Share on other sites

  • Replies 64
  • Created
  • Last Reply

Top Posters In This Topic

La stessa fonte ipotizza che finiti i GF100 il chip andrà EOL sostituito dal GF104 completo.

 

L'idea alla base dell'ipotesi è piuttosto articolata:

 

- GF100 costa un'oscenità a prodursi

- I 32nm@TSMC sono stati cancellati e quindi non ci sono previsioni di economizzazione della produzione a breve

- GF100 è stato rimaneggiato, rispetto alle specifiche obiettivo, per permettere la producibilità.

 

Alla luce di questi fatti GF104 potrebbe entrare dapprima nella fascia media, attraverso rimaneggiamenti dello shader core (disabilitazione selettiva degli SP), per poi diventare il chip "flagship" una volta commercializzato senza parti disabilitate, in virtù di frequenze raggiungibili molto più alte rispetto a GF100 (anche e non solo per motivi termici ed energetici), e con un ALU:TEX forse più favorevole.

 

In pratica il concetto è che se il derivato riesce a rispettare tutte le specifiche obiettivo potrebbe superare il chip padre che non le ha rispettate.

 

A questa ipotesi potremo dare qualche risposta già quando GF104 sarà sul mercato rimaneggiato, in base alla sua overclockabilità. Se si potranno raggiungere i 1700MHz, magari in virtù di frequenze di partenza giù più alte, ci sono buone possibilità che finisca proprio così, con una "GTX580" basata su GF104 pompato alla morte e quindi con meno SP, un bus più piccolo, ma prestazioni superiori, una storia molto simile a G92, in pratica.

Link to comment
Share on other sites

A questa ipotesi potremo dare qualche risposta già quando GF104 sarà sul mercato rimaneggiato, in base alla sua overclockabilità. Se si potranno raggiungere i 1700MHz, magari in virtù di frequenze di partenza giù più alte, ci sono buone possibilità che finisca proprio così, con una "GTX580" basata su GF104 pompato alla morte e quindi con meno SP, un bus più piccolo, ma prestazioni superiori, una storia molto simile a G92, in pratica.

 

potrebbe essere molto probabile che si verifichi una cosa del genere...

Link to comment
Share on other sites

Di fatto non ci sono grosse informazioni su nulla, che tornino a 16 mi sembra molto strano vista la riduzione dei costi di R&D in nVIDIA e il fatto che una struttura del genere significherebbe non recuperare niente o quasi dei costi legati allo sviluppo di GF100, vedo più credibile che sia un GF100 con tirato via un quarto del chip (in pratica togliendo un GPC).

 

Sulle cache invece mi sembra possibile che vengano riviste per ridurre il die size e dell'uso non destinato al GP di questa GPU. Anche qui pende una revisione del chip che forse preferiranno non fare, ma potrebbe essere abbastanza semplice da non necessitare grossi investimenti.

Link to comment
Share on other sites

Di fatto non ci sono grosse informazioni su nulla, che tornino a 16 mi sembra molto strano vista la riduzione dei costi di R&D in nVIDIA e il fatto che una struttura del genere significherebbe non recuperare niente o quasi dei costi legati allo sviluppo di GF100, vedo più credibile che sia un GF100 con tirato via un quarto del chip (in pratica togliendo un GPC).

 

Sulle cache invece mi sembra possibile che vengano riviste per ridurre il die size e dell'uso non destinato al GP di questa GPU. Anche qui pende una revisione del chip che forse preferiranno non fare, ma potrebbe essere abbastanza semplice da non necessitare grossi investimenti.

 

Buondì.

Io comunque credo questo gf104 possa esser un gran chip,se è vero che variano il rapporto alu/tmu a favore delle ultime,il gf104 potrebbe rivelarsi una ottima gpu gaming.

Ora come ora imho gf100 è limitato nelle tmu,ecco che gf104 a parità di sp potrebbe avere prestazioni migliori nei giochi.

Vedo gf100 più come una gpgpu che una gpu da gioco.

Link to comment
Share on other sites

Buondì.

Io comunque credo questo gf104 possa esser un gran chip,se è vero che variano il rapporto alu/tmu a favore delle ultime,il gf104 potrebbe rivelarsi una ottima gpu gaming.

Ora come ora imho gf100 è limitato nelle tmu,ecco che gf104 a parità di sp potrebbe avere prestazioni migliori nei giochi.

Vedo gf100 più come una gpgpu che una gpu da gioco.

 

Che GF100 fosse una GPU per il GPU Computing lo penso più o meno da sempre, e infatti lo scrivevo già più di un anno fa, e quasi tutti ormai se ne sono accorti.

 

Il rapporto ALU:TEX dimezzato di GF104 (se conformato, manteniamoci questa sicurezza) gli darà molti meno limiti nei giochi, soprattutto quelli più TEX-intensive, ovvero quelli DX9 e in generale programmati "alla vecchia maniera".

 

Ma il limite più grosso di Fermi è senz'altro l'incapacità di nVidia di affrontare il processo a 40nm (già di per sé pessimo) di TSMC, con la conseguenza di yelds disastrosi e frequenze target mancate di un bel po'.

 

GF104 pur ereditando tutti i problemi architetturali e di processo di GF100, per il solo fatto di essere grande circa la metà vedrà questi problemi ridursi, e quindi verrà fuori come un chip sicuramente meglio riuscito.

 

Ovviamente poi saranno i game-benchmark a darci delle risposte più chiare sull'argomento, ma:

 

- Si parla di 150W di TDP.

- Si parla di due alimentazioni PCIe supplementari (2x6pin).

 

Le due cose sono chiaramente in contraddizione, perché 150W sono 1x6pin, probabilmente sono 150W come sono 250W quelli di GF100, cioè "molto ottimistici", e si scontreranno con Juniper, di cui avrà prestazioni simili (presumibilmente maggiori alle risoluzioni/filtri più alte e inferiori alle più basse), con un consumo esorbitante (a confronto).

 

Probabilmente a nVidia con GF104 conviene attaccare quella terra di mezzo fra 5770 e 5850 in cui la 5830 ha obiettivamente deluso (con 24ROPs sarebbe stata la scheda perfetta per quella fascia).

 

Resta da vedere, come ultima nota, se il GF104 completo riuscirà a raggiungere le frequenze obiettivo che erano di GF100 senza infrangere la barriera dei 300W, nel qual caso ci sono tutti i motivi perché GF100 vada EOL al più presto e GF104 diventi GTX580/GTX570/GTX560.

Link to comment
Share on other sites

Che GF100 fosse una GPU per il GPU Computing lo penso più o meno da sempre, e infatti lo scrivevo già più di un anno fa, e quasi tutti ormai se ne sono accorti.

 

Il rapporto ALU:TEX dimezzato di GF104 (se conformato, manteniamoci questa sicurezza) gli darà molti meno limiti nei giochi, soprattutto quelli più TEX-intensive, ovvero quelli DX9 e in generale programmati "alla vecchia maniera".

 

Ma il limite più grosso di Fermi è senz'altro l'incapacità di nVidia di affrontare il processo a 40nm (già di per sé pessimo) di TSMC, con la conseguenza di yelds disastrosi e frequenze target mancate di un bel po'.

 

GF104 pur ereditando tutti i problemi architetturali e di processo di GF100, per il solo fatto di essere grande circa la metà vedrà questi problemi ridursi, e quindi verrà fuori come un chip sicuramente meglio riuscito.

 

Ovviamente poi saranno i game-benchmark a darci delle risposte più chiare sull'argomento, ma:

 

- Si parla di 150W di TDP.

- Si parla di due alimentazioni PCIe supplementari (2x6pin).

 

Le due cose sono chiaramente in contraddizione, perché 150W sono 1x6pin, probabilmente sono 150W come sono 250W quelli di GF100, cioè "molto ottimistici", e si scontreranno con Juniper, di cui avrà prestazioni simili (presumibilmente maggiori alle risoluzioni/filtri più alte e inferiori alle più basse), con un consumo esorbitante (a confronto).

 

Probabilmente a nVidia con GF104 conviene attaccare quella terra di mezzo fra 5770 e 5850 in cui la 5830 ha obiettivamente deluso (con 24ROPs sarebbe stata la scheda perfetta per quella fascia).

 

Resta da vedere, come ultima nota, se il GF104 completo riuscirà a raggiungere le frequenze obiettivo che erano di GF100 senza infrangere la barriera dei 300W, nel qual caso ci sono tutti i motivi perché GF100 vada EOL al più presto e GF104 diventi GTX580/GTX570/GTX560.

 

In accordo su tutto.

Sul sottolineato ti quoto alla grande.GF100 è un progetto che non vedo bene continuare,tantomeno una versione inutile da 512 sp.Se GF104 come dicono è il loro miglior chip,che sviluppino su di esso e via O0

Link to comment
Share on other sites

  • 2 weeks later...

Per i prezzi si va dai poco più di 200€ per la 768MB ai 240-270 per la 1GB.

 

Vanno quasi uguale alla HD5850 a 1680x senza filtri, impostazioni a cui il best buy è la 768MB. Salendo di risoluzione e filtri la HD5850 stacca anche nettamente GF104 in entrambe le versioni e in FullHD diventa (rimane) il best buy.

 

Interessante il fatto che abbiano rivisto la struttura degli shader a raggruppamenti di 48 invece di 32 come in GF100. Da un lato questo è uno svantaggio quando si sia obbligati a fare disabilitazioni selettive del chip per aumentare gli yelds (come nel caso in esame di entrambe le versioni di GTX460, in effetti) perdendo molti SP quando si disabiliti ogni singolo blocco, dall'altro però il risultato netto del chip è quello di essere finalmente orientato al gaming e con molta meno area, consumi e temperature di GF100 ho la netta sensazione che sarebbe anche più performante se volessero produrlo anche nella versione "completa", visti i primi test di OC.

 

La sensazione è che sia stato castrato per non pestare i piedi a GF100, almeno per il momento, ma se nVIDIA seguirà la strada tracciata con GF104 potrà tornare realmente competitiva in ambito gaming dopo i ripetuti bagni di sangue degli ultimi tempi (G200@65nm e GF100). Ovviamente ai 28nm, che sembrano ben lontani dall'essere prossimi per entrambe AMD (GF?) e nVIDIA (TSMC?).

 

Se caleranno un po' il prezzo finalmente avremo cali anche dall'altra parte, che non mi farebbe schifo, di sicuro la 768MB si mangia la HD5830, che è obiettivamente sempre stata poco convincente e allo stesso prezzo non la prenderei nemmeno morto (un po' come per 5850 vs 470 a parti invertite).

Link to comment
Share on other sites

ma io guardando qua e la vedo che la 460 1gb va come la 5850 fino a 1920 di risoluzione, dopo la 5850 va un poco d+

 

mentre sotto a basse risoluzioni diciamo, fino a 1680 la 460 1gb va più della 5850 :|

 

http://www.hwupgrade.it/articoli/skvideo/2493/nvidia-geforce-gtx-460-la-seconda-evoluzione-di-fermi_6.html

 

ho guardato anche altre recensioni piu o meno sono allineate

 

tu ti riferisci alla 768mb giusto?

Link to comment
Share on other sites

ma io guardando qua e la vedo che la 460 1gb va come la 5850 fino a 1920 di risoluzione, dopo la 5850 va un poco d+

 

mentre sotto a basse risoluzioni diciamo, fino a 1680 la 460 1gb va più della 5850 :|

 

NVIDIA GeForce GTX 460: la seconda evoluzione di Fermi - Hardware Upgrade - Il sito italiano sulla tecnologia - www.hwupgrade.it

 

ho guardato anche altre recensioni piu o meno sono allineate

 

tu ti riferisci alla 768mb giusto?

 

Io le recensioni di HWU non le guardo per motivi già evidenziati e dimostrati fino alla nausea ;)

 

In particolare per fare valutazioni sulle differenze globali alle varie impostazioni grafiche trovo comode quelle di computerbase e techpowerup, che riassumono a conclusione dividendo per risoluzione (e nel caso di cb anche per filtri).

 

Da queste si vede bene come al salire di impostazioni grafiche la 5850 saluti tutti; mentre già a risoluzioni molto basse la 768 non tiene il confronto (e visto il prezzo è anche normale) ci vuole il FullHD perché il distacco diventi consistente dalla 1GB (per ovvi motivi di banda più che di quantitativo di memoria).

 

Ovviamente per giocare a 1280x non ti compri una HD5850 (e nemmeno una GTX460, direi), ma posso dire con certezza che attualmente il best buy a 1680x è sicuramente la 768M (benché il distacco sia già sensibile dalla 5850, ma in termini assoluti va già benissimo e non si necessita di potenza addizionale), mentre in FullHD è la HD5850 ad esserlo da quando uscita e non se ne vede un'erede. La GTX460 1G costa troppo per quello che offre.

 

Se faranno uscire una scheda con GF104 completo potrebbe essere la degna erede della HD5850, o addirittura superarla, in base a come decideranno di muoversi sulle frequenze.

Link to comment
Share on other sites

ma guardavo i primi prezzi

 

la 768m viene 199e

la 1gb si trova a meno di 240 ma potrebbe scendere

 

io penso che convenga alla 5850 no?

 

sicuramente la 768 decreta la fine della 5830

 

La 5830 decretava già buana parte della propria fine da sola, stava a riempire un vuoto di fascia di prezzo, ad accontentare unicamente chi avesse avuto esattamente quel budget, a quel prezzo ora c'è la 768M e ne prende totalmente il posto (nessuno sano di mente si prenderebbe la 5830 allo stesso prezzo).

 

Per la fascia immediatamente superiore sono a 240€ la 1G e 260€ la HD5850, se a 1680x potrei preferire la prima per risparmiare quei 20€ (avendo deciso di non prendere la 768M per avere un po' di margine in più) in FullHD la distanza si fa troppo netta per non scegliere HD5850.

 

Poi certamente possono scendere, ma ci penseremo in quel momento, vedendo cosa sarà sceso e quanto ;)

Link to comment
Share on other sites

La 5830 decretava già buana parte della propria fine da sola, stava a riempire un vuoto di fascia di prezzo, ad accontentare unicamente chi avesse avuto esattamente quel budget, a quel prezzo ora c'è la 768M e ne prende totalmente il posto (nessuno sano di mente si prenderebbe la 5830 allo stesso prezzo).

 

Per la fascia immediatamente superiore sono a 240€ la 1G e 260€ la HD5850, se a 1680x potrei preferire la prima per risparmiare quei 20€ (avendo deciso di non prendere la 768M per avere un po' di margine in più) in FullHD la distanza si fa troppo netta per non scegliere HD5850.

 

Poi certamente possono scendere, ma ci penseremo in quel momento, vedendo cosa sarà sceso e quanto ;)

 

si però a 240 prendi già una gtx460 non reference, silenziosa e fresca, mentre le 5850 sono le reference o alla peggio le sapphire v3 che nemmeno permettono l'overvolt :|

Link to comment
Share on other sites

sto aspettando il link ma ora è offline

 

cmq leggevo che in oc vanno abbastanza bene

 

12788968667K0gVsvzTK_9_1.gif

 

a

 

12788968667K0gVsvzTK_9_2.gif

 

con impatto prestazionale (sulla reference) decisamente valido

 

12788968667K0gVsvzTK_9_4.gif

 

a me sembrano buoni mi pare il +25% di prestazioni no? parlo della reference

 

tra le altre cose in quel gioco nn vanno nemmeno tanto bene le gtx quindi...

Edited by Devil_Mcry
Link to comment
Share on other sites

Eh per questo dicevo che GF104 ha le potenzialità di essere più performante di GF100 e che l'hanno castrato negli SP nelle frequenze stock per non cannibalizzarsi le 480 e 470 (soprattutto di queste, le 480 le vendono ma le 470 non riescono a smaltirle e molti produttori le hanno declassate a 465 per riuscire a venderle al price point più basso pur di venderle) :D

 

E' una conferma di quanto GF100 sia un progetto sbagliato rispetto al gaming se un chip tanto più piccolo può tranquillamente performare uguale (Cypress e GF104). Forse ora che c'è anche un chip nVIDIA che dimostra questo e non solo quello AMD ci crederanno anche i fan nVIDIA ;)

 

P.S.: Ottimo sito [H]ard|OCP, affronta le recensioni in modo completamente diverso ma è molto utile per farsi un'idea addizionale rispetto alla recensione classica. Personalmente quando esce una VGA leggo solo Anand e [H], salvo poi usare anche computerbase e techreport per farmi un'idea complessiva a colpo d'occhio anche con gli aggregati risoluzione per risoluzione.

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


×
×
  • Create New...