Jump to content

Voci su G80


Deos

Recommended Posts

Visto che c'è un topic per l'R600 mi pareva brutto non aprirne una anche per il suo sfidante il G80

 

premetto che io parteggio per ATI cmq e notizia di oggi che sono trapelate delle info sull'architettura .................... Adottando unita Multifunzionali

 

metto una coitazione alla News di Tom's

 

Nelle pipeline di rendering 3D, è raro che ci sia la completa necessità di utilizzare sia le unità d'interpolazione che quelle funzionali, così, durante il rendering 3D, alcune rimangono poco utilizzate o inutilizzate, portando a uno spreco di risorse energetiche e di spazio sul die. I piani di Nvidia per il G80 sembrano indicare la combinazione di queste unità funzionali in una singola soluzione che possa occuparsi delle tecniche di interpolazione e delle funzioni più complesse

 

link alla news http://www.tomshw.it/news.php?newsid=6984

 

e link alla discussione su un foro di colui che ha fatto la scoperta http://www.beyond3d.com/forum/showthread.php?t=31854

 

forse nVidia vuole diminuire lo spazio del Die per inserire pixelshared ......................... visto che nVidia se non sbaglio non fara tutto unificato

 

che mi dite??

 

Deos

Link to comment
Share on other sites

La trovo veramente molto interessate la cosa.

Se Nvidia utilizza lo spazio risparmiato per aggiungere unità pixel shader, allora il G80 incomincia ad essere veramente, ma veramente interessante.

Io prenderei, per il momento con le pinze questa notizia.

Ciao ;)

Link to comment
Share on other sites

Io prenderei, per il momento con le pinze questa notizia.

Ciao ;)

 

sicuro che e daprendere con le pinze .............. siamo molto lontani dall'uscita di questa schedozza ................. pero se ste cose promette bene .................... cmq non e detto che lo spazio restante venga usato per i pixel e un ipotesi

 

dall'articolo di toms

 

Quello che ora ci chiediamo è se Nvidia combinerà queste unità funzionali per salvaguardare la grandezza del die e i consumi energetici, oppure se semplicemente utilizzeranno lo spazio risparmiato per aggiungere unità pixel shader, aumentando ancor più le prestazioni.

 

Deos

Link to comment
Share on other sites

sicuro che e daprendere con le pinze .............. siamo molto lontani dall'uscita di questa schedozza ................. pero se ste cose promette bene .................... cmq non e detto che lo spazio restante venga usato per i pixel e un ipotesi

 

dall'articolo di toms

 

Deos

Infatti, se per caso lo destineranno ad aumentare i pixel...allora sarà veramente una cosa molto interessante.

Ciao ;)

Link to comment
Share on other sites

Infatti, se per caso lo destineranno ad aumentare i pixel...allora sarà veramente una cosa molto interessante.

Ciao ;)

 

QUOTO ................ e speriamo che sia cosi senza incidere tanto sui consumi ..................

 

Sapete con che processo produttivo verra fatto sto G80??? sara a 65nm come l'R600??

 

e soprattutto GDDR4??

 

Deos

Link to comment
Share on other sites

QUOTO ................ e speriamo che sia cosi senza incidere tanto sui consumi ..................

 

Sapete con che processo produttivo verra fatto sto G80??? sara a 65nm come l'R600??

 

e soprattutto GDDR4??

 

Deos

 

Provabilemnte verranno introdotte anche le memorie GDDR4 di produzione Samsung in grado di raggiungere una banda per pin di ben 2,5Gbps.

Ciao ;)

Link to comment
Share on other sites

io vedo sempre una cosa, Nvidia potenza bruta e rielaborazione delle vecchie architetture (non è necessariamente una cosa negativa :) saranno i fatti a dimostrarlo), invece Ati ottimizzazione e architetture rivoluzionarie o altamente innovative (con tutti i pro i contro, potrebbe essere un flop per dire una scelta di questo genere, ma potrebbe essere una mossa vincente).

per ora sono solo ipotesi, saranno i fatti a darci ragione o torto.

 

 

 

Però in tutta sincerità il progetto di Ati mi piace molto :)

 

in ogni caso queste battaglie servono tantissimo a spingere ora l'una ora l'altra azienda a fare continue ricerche e sviluppare nuovi progetti.

 

un esempio banale è i consumi bassi delle sched Nvidia che stanno spingendo Ati ad ottimizzare le sue architetture verso gli 80nanometri e ridurre questo gap abbastanza evidente.

Link to comment
Share on other sites

  • 2 weeks later...

Raga e notizia di oggi che nVidia per la sua nuova VGA DX10 non adottera il processo produttivo a 80nm ma restera sul gia collaudato 90nm

 

http://www.tomshw.it/news.php?newsid=7104

 

in ogni caso le specifiche son confermate

32 pippeline e 16 vertex + geometry shared

e usare le GDDR4 come memorie

 

Deos

.....si vede che non vuole rischiare....

Ciao ;)

Link to comment
Share on other sites

una gpu è più complessa di una cpu. Teniamo anche conto che le schede video hanno memoria dedicata, oggi si discute per la fascia alta di 512mb di ram, ma si sta arrivando al gb, aggiungiamo anche un'alimentazione ad hoc, i mos-fet si ti tirano una buona parte di corrente :)

credo che una scheda video top level sia quasi impossibile che consumi meno di una cpu.

 

Gianni

Link to comment
Share on other sites

Secondo me questo è frutto della pura concorrenza che affretta i produttori e magari i loro bei costosi prodotti o consumano troppo oppure prestazionalmente non sono un gran che... (magari vale più la prima possibilità) :LOLGoku:

 

Comunque credo che molti di noi sarebbero disposti ad aspettare per vedere magari prodotti un pelino + brillanti e cn consumi più contenuti perchè andando avanti cosi il kw si avvicina... :uglystupid2::ahah:

 

Cmq per quanto riguarda il nn sfruttare pienamente il dx9 penso che sia una tendenza dei produttori a far passare in massa i consumatori su piattaforma dx10 e questo vuol dire farlo anche in tempi abbastanza ristretti :tickedoff:

 

Daltronde io credo che questi sono i ritmi che ci impone il mercato e ci possiamo fare ben poco per rimediare.... :slapass::muro:

 

Ciao ;)

 

 

Link to comment
Share on other sites

dx10 ok , ma nn era il caso di sfruttare ancora a dovere le 9 ??

 

cosa ce ne faremo di gpu , che competono con le cpu ad armi pari ??

 

è mai possibile che una sk video consumi moto di + di una cpu medio/alta ??

Comunque è anche ora che nel campo delle schede video ci sia una netta evoluzione.

Mi spiego.

Le dx9 non hanno implementato miglioramente ecclatanti rispetto all dx8, certo, miglioramenti ci sono stati, ma nulla di cosi rivoluzionario.

Il mondo delle schede grafiche è fermo da un bel pezzo a livello di qualità dell'immagine.Le schede video che escono ora, apportano solo maggiore velocità e non migliore qualità o resa grafica.

Le dx10, daranno finalmente uno scossone a questa qualità grafica.

Ciao ;)

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...