Deos Posted July 12, 2006 Share Posted July 12, 2006 Visto che c'è un topic per l'R600 mi pareva brutto non aprirne una anche per il suo sfidante il G80 premetto che io parteggio per ATI cmq e notizia di oggi che sono trapelate delle info sull'architettura .................... Adottando unita Multifunzionali metto una coitazione alla News di Tom's Nelle pipeline di rendering 3D, è raro che ci sia la completa necessità di utilizzare sia le unità d'interpolazione che quelle funzionali, così, durante il rendering 3D, alcune rimangono poco utilizzate o inutilizzate, portando a uno spreco di risorse energetiche e di spazio sul die. I piani di Nvidia per il G80 sembrano indicare la combinazione di queste unità funzionali in una singola soluzione che possa occuparsi delle tecniche di interpolazione e delle funzioni più complesse link alla news http://www.tomshw.it/news.php?newsid=6984 e link alla discussione su un foro di colui che ha fatto la scoperta http://www.beyond3d.com/forum/showthread.php?t=31854 forse nVidia vuole diminuire lo spazio del Die per inserire pixelshared ......................... visto che nVidia se non sbaglio non fara tutto unificato che mi dite?? Deos Quote Link to comment Share on other sites More sharing options...
dj883u2 Posted July 12, 2006 Share Posted July 12, 2006 La trovo veramente molto interessate la cosa. Se Nvidia utilizza lo spazio risparmiato per aggiungere unità pixel shader, allora il G80 incomincia ad essere veramente, ma veramente interessante. Io prenderei, per il momento con le pinze questa notizia. Ciao Quote Link to comment Share on other sites More sharing options...
Deos Posted July 12, 2006 Author Share Posted July 12, 2006 Io prenderei, per il momento con le pinze questa notizia. Ciao sicuro che e daprendere con le pinze .............. siamo molto lontani dall'uscita di questa schedozza ................. pero se ste cose promette bene .................... cmq non e detto che lo spazio restante venga usato per i pixel e un ipotesi dall'articolo di toms Quello che ora ci chiediamo è se Nvidia combinerà queste unità funzionali per salvaguardare la grandezza del die e i consumi energetici, oppure se semplicemente utilizzeranno lo spazio risparmiato per aggiungere unità pixel shader, aumentando ancor più le prestazioni. Deos Quote Link to comment Share on other sites More sharing options...
dj883u2 Posted July 12, 2006 Share Posted July 12, 2006 sicuro che e daprendere con le pinze .............. siamo molto lontani dall'uscita di questa schedozza ................. pero se ste cose promette bene .................... cmq non e detto che lo spazio restante venga usato per i pixel e un ipotesi dall'articolo di toms Deos Infatti, se per caso lo destineranno ad aumentare i pixel...allora sarà veramente una cosa molto interessante. Ciao Quote Link to comment Share on other sites More sharing options...
Deos Posted July 12, 2006 Author Share Posted July 12, 2006 Infatti, se per caso lo destineranno ad aumentare i pixel...allora sarà veramente una cosa molto interessante. Ciao QUOTO ................ e speriamo che sia cosi senza incidere tanto sui consumi .................. Sapete con che processo produttivo verra fatto sto G80??? sara a 65nm come l'R600?? e soprattutto GDDR4?? Deos Quote Link to comment Share on other sites More sharing options...
dj883u2 Posted July 12, 2006 Share Posted July 12, 2006 QUOTO ................ e speriamo che sia cosi senza incidere tanto sui consumi .................. Sapete con che processo produttivo verra fatto sto G80??? sara a 65nm come l'R600?? e soprattutto GDDR4?? Deos Provabilemnte verranno introdotte anche le memorie GDDR4 di produzione Samsung in grado di raggiungere una banda per pin di ben 2,5Gbps. Ciao Quote Link to comment Share on other sites More sharing options...
Deos Posted July 13, 2006 Author Share Posted July 13, 2006 Ma come processo produttivo che adottera il G80 si sa niente??? passera anche nvidia a 65nm?? Deos Quote Link to comment Share on other sites More sharing options...
Deos Posted July 13, 2006 Author Share Posted July 13, 2006 Vi metto qui una news http://www.theinquirer.net/default.aspx?article=32856 da quello che si dice will have 32 pixel Shaders and, as predicted, have 16 vertex and geometry Shaders. e il processo produttivo dovrebbe restare a 90nm e il core dovrebbe avere velocita prossime al GHz Deos Quote Link to comment Share on other sites More sharing options...
dj883u2 Posted July 13, 2006 Share Posted July 13, 2006 Comunque, una bella R600 mi attende... > Ciao Quote Link to comment Share on other sites More sharing options...
gianni1879 Posted July 13, 2006 Share Posted July 13, 2006 io vedo sempre una cosa, Nvidia potenza bruta e rielaborazione delle vecchie architetture (non è necessariamente una cosa negativa saranno i fatti a dimostrarlo), invece Ati ottimizzazione e architetture rivoluzionarie o altamente innovative (con tutti i pro i contro, potrebbe essere un flop per dire una scelta di questo genere, ma potrebbe essere una mossa vincente). per ora sono solo ipotesi, saranno i fatti a darci ragione o torto. Però in tutta sincerità il progetto di Ati mi piace molto in ogni caso queste battaglie servono tantissimo a spingere ora l'una ora l'altra azienda a fare continue ricerche e sviluppare nuovi progetti. un esempio banale è i consumi bassi delle sched Nvidia che stanno spingendo Ati ad ottimizzare le sue architetture verso gli 80nanometri e ridurre questo gap abbastanza evidente. Quote Link to comment Share on other sites More sharing options...
Deos Posted July 13, 2006 Author Share Posted July 13, 2006 Comunque, una bella R600 mi attende... > Ciao Idem con patate ^-^ Deos Quote Link to comment Share on other sites More sharing options...
Deos Posted July 26, 2006 Author Share Posted July 26, 2006 Raga e notizia di oggi che nVidia per la sua nuova VGA DX10 non adottera il processo produttivo a 80nm ma restera sul gia collaudato 90nm http://www.tomshw.it/news.php?newsid=7104 in ogni caso le specifiche son confermate 32 pippeline e 16 vertex + geometry shared e usare le GDDR4 come memorie Deos Quote Link to comment Share on other sites More sharing options...
dj883u2 Posted July 26, 2006 Share Posted July 26, 2006 Raga e notizia di oggi che nVidia per la sua nuova VGA DX10 non adottera il processo produttivo a 80nm ma restera sul gia collaudato 90nm http://www.tomshw.it/news.php?newsid=7104 in ogni caso le specifiche son confermate 32 pippeline e 16 vertex + geometry shared e usare le GDDR4 come memorie Deos .....si vede che non vuole rischiare.... Ciao Quote Link to comment Share on other sites More sharing options...
megthebest Posted July 26, 2006 Share Posted July 26, 2006 dx10 ok , ma nn era il caso di sfruttare ancora a dovere le 9 ?? cosa ce ne faremo di gpu , che competono con le cpu ad armi pari ?? è mai possibile che una sk video consumi moto di + di una cpu medio/alta ?? Quote Link to comment Share on other sites More sharing options...
gianni1879 Posted July 26, 2006 Share Posted July 26, 2006 una gpu è più complessa di una cpu. Teniamo anche conto che le schede video hanno memoria dedicata, oggi si discute per la fascia alta di 512mb di ram, ma si sta arrivando al gb, aggiungiamo anche un'alimentazione ad hoc, i mos-fet si ti tirano una buona parte di corrente credo che una scheda video top level sia quasi impossibile che consumi meno di una cpu. Gianni Quote Link to comment Share on other sites More sharing options...
Lordh Posted July 26, 2006 Share Posted July 26, 2006 Secondo me questo è frutto della pura concorrenza che affretta i produttori e magari i loro bei costosi prodotti o consumano troppo oppure prestazionalmente non sono un gran che... (magari vale più la prima possibilità ) Comunque credo che molti di noi sarebbero disposti ad aspettare per vedere magari prodotti un pelino + brillanti e cn consumi più contenuti perchè andando avanti cosi il kw si avvicina... Cmq per quanto riguarda il nn sfruttare pienamente il dx9 penso che sia una tendenza dei produttori a far passare in massa i consumatori su piattaforma dx10 e questo vuol dire farlo anche in tempi abbastanza ristretti Daltronde io credo che questi sono i ritmi che ci impone il mercato e ci possiamo fare ben poco per rimediare.... Ciao Quote Link to comment Share on other sites More sharing options...
dj883u2 Posted July 27, 2006 Share Posted July 27, 2006 dx10 ok , ma nn era il caso di sfruttare ancora a dovere le 9 ?? cosa ce ne faremo di gpu , che competono con le cpu ad armi pari ?? è mai possibile che una sk video consumi moto di + di una cpu medio/alta ?? Comunque è anche ora che nel campo delle schede video ci sia una netta evoluzione. Mi spiego. Le dx9 non hanno implementato miglioramente ecclatanti rispetto all dx8, certo, miglioramenti ci sono stati, ma nulla di cosi rivoluzionario. Il mondo delle schede grafiche è fermo da un bel pezzo a livello di qualità dell'immagine.Le schede video che escono ora, apportano solo maggiore velocità e non migliore qualità o resa grafica. Le dx10, daranno finalmente uno scossone a questa qualità grafica. Ciao Quote Link to comment Share on other sites More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.