Jump to content

Aspettando Fermi ......


Achille GForce

Recommended Posts



  • Replies 2.3k
  • Created
  • Last Reply

Top Posters In This Topic

oddio! ! !

 

 

che occhio, grandi! ! ! :asd:

 

 

se davvero le geforce 470 e 480 sono così al di sotto delle aspettative le faranno uscire più per una questione di immagine che di competitività, tanto per dire "ci siamo anche noi", se così fosse spero nelle revisioni 475 e 485 o presunte tali alla fine dell'anno per mostrare fermi come fu originariamente pensato per il gaming.

 

 

Se vanno bene tanto meglio, spero che sia un progetto pensato a lungo termine, anche per i 28nm

Link to comment
Share on other sites

non capisco perchè postare fake della gigabyte, non provengono mica da nvidia ste cose e poi la ram da un lato è 1280 e dall'altro 1536, si vede che è na fakata !

Ma quale fake, queste foto sono state scattate ad una scatola nello stand Gigabyte al CeBIT.

Link to comment
Share on other sites

sono fake comunque, ti pare normale che da un alto ci soano specifiche e dall'altro lato delle altre ?

Fake nel senso che le scatole sono state stampate male, ma le foto sono originali, non sono state modificate con photoshop.

Link to comment
Share on other sites

dalla news di fudzilla la 480 sarebbe sì superiore alla 5870 ma solo in alcuni casi ( some cases ), che vergogna !

quindi la 470 sarà solo una patetica versione verde della 5850 con sto super tessellator che consuma, scalda, si clocca meno e costa di più ?

 

come cavolo si fa a mettere nel mercato sta schifezza ? Ma come possibile che una 480 sia superiore ad una 5870 e la 470 sia uguale alla 5850 ? La 470 dovrebbe aver scalato solo il numero di unità ma non la frequenza, mentre invece la 5850 va a scalare sia unità che frequenza ! Da che buco è uscita sta scheda ?

 

Non era più facile rendere a 40nm la GTX 295 e 285 con revision dell'architettura base ? Bisogna avere per forza ste DX11 ?

Perdonami....ma cosa ti aspettavi?.....è da un bel po che si sapevano queste cose...e ti dirò di +.....Nvidia con il processo produttivo a 28nm, sarà molto ma molto in difficoltà....La GTX295 non era possibile renderla neanche DX 10.1....anzi, l'intero progetto G200 di Nvidia è impossibile renderlo compatibile per le dx10.1....figurati per le dx11....

Link to comment
Share on other sites

Perdonami....ma cosa ti aspettavi?.....è da un bel po che si sapevano queste cose...e ti dirò di +.....Nvidia con il processo produttivo a 28nm, sarà molto ma molto in difficoltà....La GTX295 non era possibile renderla neanche DX 10.1....anzi, l'intero progetto G200 di Nvidia è impossibile renderlo compatibile per le dx10.1....figurati per le dx11....

 

come mai ?

a sto punto valuterei l'abbondono del mercato gaming.

 

Comunque al massimo sfornavano una revisione del GT200 tipo G92 ai tempi del G80. Le DX11 a sto punto per ridursi così non valevano la pena, tanto valeva posticiparle. Sfornavano un GTX 285 e 295 a 40nm e via, sarebbe stata di nuovo davanti.

Link to comment
Share on other sites

il die shrink di gt200 era impedito dall'ampiezza del bus, non c'era abbastanza posto per collegare tutte le linee del bus una volta fatto il die shrink. Teoricamente questa volta il chip è ancora piu' grande e il bus piu' piccolo quindi non ci dovrebbe essere quest'impedimento meccanico

Link to comment
Share on other sites

il die shrink di gt200 era impedito dall'ampiezza del bus, non c'era abbastanza posto per collegare tutte le linee del bus una volta fatto il die shrink. Teoricamente questa volta il chip è ancora piu' grande e il bus piu' piccolo quindi non ci dovrebbe essere quest'impedimento meccanico

 

 

Non intendevo quello.

 

Con GT200 ora che sono possibili le GDDR5 per Nvidia, si poteva limitare l'ampiezza di banda a 256-320bit ( un bel taglio dai 512bit ) e sfruttare la frequenza delle RAM. In questo modo non solo avevi una riduzione sensibile dei costi di produzione di GT200 ma rendevi ancora più economico il progetto del PCB e forse limavi ancora di più le dimensioni del chip. Ricordo che passare da 55 a 40nm si perde quasi il 38% di supercificie, roba nonda poco affatto, col dimezzamento dell'ampiezza del controller il costo sarebbe scese ulteriormente.

 

Una GTX 285 Refresh a 40nm con 100Mhz in più quindi diciamo attorno ai 750/1500mhz avrebbe sicuramente dato filo da torcere alla 5850 mantendo probabilmente bassi consumi e calore e una GTX 295 a 40nm.......bè di sicuro anche senza aumentare le frequenze sarebbe sopra la 5870.

 

Il progetto era già pronto, pure economico da sviluppare...........

Edited by Achille GForce
Link to comment
Share on other sites

Non intendevo quello.

 

Con GT200 ora che sono possibili le GDDR5 per Nvidia, si poteva limitare l'ampiezza di banda a 320-384bit oppure 256-320 e sfruttare la frequenza delle RAM. In questo modo non solo avevi una riduzione sensibile dei costi di produzione di GT200 ma rendevi ancora più economico il progetto del PCB e forse limavi ancora di più le dimensioni del chip.

 

Una GTX 285 Refresh a 40nm con 100Mhz in più quindi diciamo attorno ai 750/1500mhz avrebbe sicuramente dato filo da torcere alla 5850 mantendo probabilmente bassi consumi e calore e una GTX 295 a 40nm.......bè di sicuro anche senza aumentare le frequenze sarebbe sopra la 5870.

 

Il progetto era già pronto, pure economico da sviluppare...........

Impossibile per un colosso come nVidia restare senza DX11... già ha fatto a suo tempo una figuraccia non avendo schede video DX10.1. Tu metti sempre al primo posto questo "stare davanti" ma sappi che conta ben poco... ciò che conta veramente è offrire al cliente un prodotto valido a 360 gradi, che ti permetta di divertirti senza spendere uno sposposito. Se a questo giro nVidia sta dietro come performance non succede niente... ma dovrebbe stare abbastanza alla pari, quindi non hai di che preoccuparti :)

Link to comment
Share on other sites

Non intendevo quello.

 

GT200 ora che sono possibili le GDDR5 per Nvidia, si poteva limitare l'ampiezza di banda di GT200 a 320-384bit oppure 256-320 e sfruttare la frequenza delle RAM. In questo modo non solo avevi una riduzione sensibile dei costi di produzione di GT200 ma rendevi ancora più economico il progetto del PCB e forse limavi ancora di più le dimensioni del chip.

 

Una GTX 285 Refresh a 40nm con 750/1500mhz avrebbe sicuramente dato filo da torcere alla 5850 mantendo probabilmente bassi consumi e calore e una GTX 295 a 40nm.......bè di sicuro anche senza aumentare le frequenze sarebbe sopra la 5870.

 

si con l'adozione delle gddr5 avrebbe avuto senso... evidentemente c'era qualche difficoltà tecnica nel modificare il progetto oppure nvidia ha deciso di puntare tutto su fermi, rinunciando a vendere schede nel periodo di transizione pur di far credere che Fermi fosse davvero rivoluzionaria.

 

Prima di dire se ha fatto male aspettiamo il lancio ufficiale, ancora mi sembra tutto troppo nebuloso per dare un verdetto

Link to comment
Share on other sites

Impossibile per un colosso come nVidia restare senza DX11... già ha fatto a suo tempo una figuraccia non avendo schede video DX10.1. Tu metti sempre al primo posto questo "stare davanti" ma sappi che conta ben poco... ciò che conta veramente è offrire al cliente un prodotto valido a 360 gradi, che ti permetta di divertirti senza spendere uno sposposito. Se a questo giro nVidia sta dietro come performance non succede niente... ma dovrebbe stare abbastanza alla pari, quindi non hai di che preoccuparti :)

 

Bè oddio pari in prestazioni ma con consumi e calore superiori, margini di clock inferiori e probabilmente prezzo più pieno.

 

Per me contano i frames, le DX11 dal punto di vita pratico a parte il tessellation il resto non si nota na mazza a occhio nudo perchè sono ancora antivi DX9 i giochi, tranne qualcuno come il prossimo Metro 2033 che ha cominciato ad essere antivo DX10 retrocompatibile. Anzi ti dico di più, se fosse stata snobbata la DX11 da Nvidia, avrebbero potuto ridicolizzarla dicendo che una 5870 con tessellation andava come la mia 260 e che quindi non valeva la pena con questa generazione.

Link to comment
Share on other sites

Bè oddio pari in prestazioni ma con consumi e calore superiori, margini di clock inferiori e probabilmente prezzo più pieno.

 

Per me contano i frames, le DX11 dal punto di vita pratico a parte il tessellation il resto non si nota na mazza a occhio nudo perchè sono ancora antivi DX9 i giochi, tranne qualcuno come il prossimo Metro 2033 che ha cominciato ad essere antivo DX10 retrocompatibile. Anzi ti dico di più, se fosse stata snobbata la DX11 da Nvidia, avrebbero potuto ridicolizzarla dicendo che una 5870 con tessellation andava come la mia 260 e che quindi non valeva la pena con questa generazione.

Si ma ricordati che dei frames oltre una certa soglia te ne freghi :)

Qui la scelta sta a te... se le schede video ATI e nVidia dovessero rivelarsi molto simili nelle prestazioni devi capire quale prodotto fa più per te... se preferisci avere physx ma più calore, più consumo e meno overclock oppure se preferisci non avere physx ma avere ottime temperature, ottimi consumi e buon magine di overclock.

 

Per quanto riguarda la frase in neretto non commento... mi sono cadute le braccia quando l'ho letta :D

Link to comment
Share on other sites

Si ma ricordati che dei frames oltre una certa soglia te ne freghi :)

Qui la scelta sta a te... se le schede video ATI e nVidia dovessero rivelarsi molto simili nelle prestazioni devi capire quale prodotto fa più per te... se preferisci avere physx ma più calore, più consumo e meno overclock oppure se preferisci non avere physx ma avere ottime temperature, ottimi consumi e buon magine di overclock.

 

Per quanto riguarda la frase in neretto non commento... mi sono cadute le braccia quando l'ho letta :D

 

 

teoricamente la cosa è vera, quindi sarebbe potuta benissimo essere oggetto di critica.

 

Physx ? Ma chissefrega ! Quella è una chicca che usi quando non hai problemi di frames, un conto diverso è dire che la 470 va poco più di una GTX 285. Anzi un modello tipo Matrix 285 se ben occato magari riesce a raggiungerla, patetico ! L'unica soluzione è che questo super tessellator dia risultati degni di nota o comunque che possa essere sfruttato in stile Nvidia, ordinando alle SH di far uso più massiccio del solito del tessellator per mettere in crisi quello di ATI per farlo scndere sotto i 30 frames.

Link to comment
Share on other sites

teoricamente la cosa è vera, quindi sarebbe potuta benissimo essere oggetto di critica.

Per me sarebbe un comportamente ipocrtica. Andare a criticare una nuova tecnologia solo perchè non ce l'ho è da stupidi... poi non so...

Link to comment
Share on other sites

come mai ?

a sto punto valuterei l'abbondono del mercato gaming.

 

Comunque al massimo sfornavano una revisione del GT200 tipo G92 ai tempi del G80. Le DX11 a sto punto per ridursi così non valevano la pena, tanto valeva posticiparle. Sfornavano un GTX 285 e 295 a 40nm e via, sarebbe stata di nuovo davanti.

Perchè è un processo produttivo di tipo HKMG (High-K Metal gate)....totalmente differennte da quello dei 40nm....e Nvidia non ha esperienza in tal senso....sarà veramente molto dura....chiaramente spero di sbagliarmi.....ma non si approssima niente....

Link to comment
Share on other sites

Per me sarebbe un comportamente ipocrtica. Andare a criticare una nuova tecnologia solo perchè non ce l'ho è da stupidi... poi non so...

 

può darsi ma se nvidia avesse agito con un die shrink di una rivisitazione di Gt200, dubito che non sarebbe stato un progetto di successo.

Come chiedere ad uno : "se la GTX 295 scaldasse e consumasse come una normale single GPU, tu preferiresti sempre ATI 5870 ? " Forse tu sì ma molti altri non ne son sicuro.

Link to comment
Share on other sites

Guest
This topic is now closed to further replies.

×
×
  • Create New...