Jump to content

Ratatosk

Members
  • Posts

    285
  • Joined

  • Last visited

Everything posted by Ratatosk

  1. Non ho una risposta al tuo problema, in ogni caso quando chiedi aiuto è consigliabile sempre allegare la propria configurazione completa hardware e soprattutto, in questo caso, software (che S.O. hai).
  2. Questi son rincoglioniti Parlano di ROPs aumentate per ben due volte, invece sono le TMU, e ci può stare che chi ha scritto si sia confuso (due volte... vabbè), ma la cosa della ram in più perché ci sono più SP è ridicola proprio: con il bus invariato a 384bit i tagli di memoria possibili non possono che essere gli stessi, cioè 768MB (e non penso ci sia qualcuno convinto che facciano un aumento degli SP e marginale delle frequenze per ridurre il framebuffer), 1.5GB (cioè come ora) e 3GB (i moduli per fare quelle da 3GB ancora non esistono e comunque costerebbero un rene l'uno, oltre ad essere 3GB del tutto inutili su una VGA ). Insomma di una news ormai vecchia ci hanno scritto una boiata per farla nuova, eppure non ne avevo sentito parlar male di Guru3D (anche se poi non l'ho mai seguito)
  3. L'atteggiamento di alcune persone in giro per il web mi fa venire il sospetto che i briefing per stampa e tester siano iniziati o in arrivo, con le annesse tante belle firmette su vocabolari chiamati NDA e altrettanti piccoli leaks... Il progetto era Torrenza, poi morto non senza una responsabilità del progetto Fusion che di fatto ha tolto una delle applicazioni con maggior volume attribuibile a Torrenza :>
  4. La stessa fonte ipotizza che finiti i GF100 il chip andrà EOL sostituito dal GF104 completo. L'idea alla base dell'ipotesi è piuttosto articolata: - GF100 costa un'oscenità a prodursi - I 32nm@TSMC sono stati cancellati e quindi non ci sono previsioni di economizzazione della produzione a breve - GF100 è stato rimaneggiato, rispetto alle specifiche obiettivo, per permettere la producibilità. Alla luce di questi fatti GF104 potrebbe entrare dapprima nella fascia media, attraverso rimaneggiamenti dello shader core (disabilitazione selettiva degli SP), per poi diventare il chip "flagship" una volta commercializzato senza parti disabilitate, in virtù di frequenze raggiungibili molto più alte rispetto a GF100 (anche e non solo per motivi termici ed energetici), e con un ALU:TEX forse più favorevole. In pratica il concetto è che se il derivato riesce a rispettare tutte le specifiche obiettivo potrebbe superare il chip padre che non le ha rispettate. A questa ipotesi potremo dare qualche risposta già quando GF104 sarà sul mercato rimaneggiato, in base alla sua overclockabilità. Se si potranno raggiungere i 1700MHz, magari in virtù di frequenze di partenza giù più alte, ci sono buone possibilità che finisca proprio così, con una "GTX580" basata su GF104 pompato alla morte e quindi con meno SP, un bus più piccolo, ma prestazioni superiori, una storia molto simile a G92, in pratica.
  5. Può anche essere, certo se ci vorrà fino ad ottobre per avere messo da aprte abbastanza GF100 buoni da stare in una 485 e rientrare nei 375W non ci spererei un granché... Quindi solo un sampling particolarmente spinto del vecchio chip e non un respin. Probabilmente sarà una limited edition.
  6. Bello il risultato di ME2 a 2560x, in cui ha uno scaling superlineare :cheazz: Direi che qualcosa non torna, almeno in quel gioco. Ad ogni modo test interessante. L'inizio della conclusione è piuttosto assurdo... Visto che per la GTX 295 non sono stati in grado di fare 2xGTX285, che hanno un TDP di 204W, mi piacerebbe sapere come fa xbit a ipotizzare che una dual-Fermi possa essere basata su un 2xGTX470, con il TDP di 215W delle GTX470. D'altra parte se fosse una possibilità reale invece che una radicata volontà dei recensori, ormai l'avremmo già vista sul mercato, visto che mettere due chip con bus da 384bit su un PCB non potrà essere più complicato che mettercene due con bus da 448bit...
  7. Direi che è la stessa notizia già vista che sta rimbalzando. (Ricordati la fonte!)
  8. Se non fosse per il TDP delle belle schede con il socket sarebbero di certo interessanti, magari anche integrate sulla mobo direttamente, e così come cambi la CPU, cambi anche la GPU... Ok, mi basta che esca S.I. così me ne compro un paio e sto tranquillo per un po'
  9. Il solito bene informato Charlie dice che da quanto sa S.I. è pin to pin compatible con Cypress, quindi 256bit. In una news riguardante tutt'altro (che ho postato in thread apposito) esprime dubbi sulla possibilità che TSMC rispetti i tempi per i 28nm (e relativamente allo stesso argomento si dice, sul suo forum, convinto che GF arriverà prima a questa milestone, seppur di poco).
  10. Visto che non c'è un thread dedicato riporto questa notizia, da fonte che si è confermata molto attendibile su nVIDIA negli ultimi tempi. Estraggo i punti salienti per comodità, per leggere tutto c'è il link in fondo: SemiAccurate :: What are Nvidia's GF104, GF106 and GF108?
  11. Non ri-, la seconda sospensione è stata sufficiente a farmi decidere per farmi bannare (la prima ed ultima volta)
  12. Capisco il problema, mi son fatto un'armatura mettendoci 8 mesi in due persone a testa bassa a fare e rifare le cose perché venissero così come dovevano. La passione è tutto, senza ci muoveremmo di moto browniano, che per quanto soggetto illuminato fonte del Nobel ad Einstein, non è il massimo del vivere sociale
  13. Prima o poi devo farmi venire la voglia di fare qualcosa del genere
  14. Sono d'accordo. Intel si sta scontrando contro ciò su cui tutti hanno sbattuto, ovvero i costi enormi di una corsa alla transizione di processo. Sarà interessante vedere se e come comincerà a fare dell'outsourcing sulla produzione per ridurre il numero di fabs attualmente esagerato e forse insostenibile a lungo termine. Fra le altre cose i 32nm hanno presentato lo scoglio del passaggio dalla litografia a secco a quella ad immersione, cosa che AMD (quindi GF) aveva già fatto e che potrebbe essere lo scoglio che porterà al pareggio di nodo produttivo in tempi relativamente brevi.
  15. Purtroppo sarà così finché non avvieranno la nuova linea produttiva, la deadline era l'estate, luglio mi pare, fino a quel momento nisba...
  16. Devi installarli comunque, se cambi VGA (ma absta anche solo avergli cambiato il BIOS) devi sempre reinstallarli. Personalmente da quando installai Vista al day1 (ora 7) non ho più fatto pulizie prima di installare nuovi driver, ma ho semre installato sopra ai precedenti senza avere problemi. Di certo se pulisci a fondo peggio non fa, comunque
  17. Domanda secca: si vede differenza in DiRT2 in DX11? Dagli screenshot non si vede cambiare nulla da DX9 a DX11 :cheazz: Io sono in attesa di Southern Islands proprio perché ora che ho cambiato monitor la 4870 mi è improvvisamente passata da sovrabbondante a stretta
  18. Il punto che preoccupa è che se un motore meno avveniristico una volta impostato al massimo gira bene e da risultati grafici migliori di quello superfigo alle impostazioni che consentono la stessa fluidità, è evidente che quello superfigo non è poi così figo Verissimo, mi ricordo cose aberranti Pixar è sinonimo di rendering offline, quindi la questione è molto diversa, visto che il film lo guardi dopo che è stato tutto renderizzato in una farm, registrato e poi fruito dagli utenti molti mesi dopo. Certo se uno pensasse di fare un gioco su un motore di rendering Pixar sarebbe peggio di una scimmia Insomma tipo questo (la mia scimmia, per rimanere in tema di primati, sta salendo a dismisura): SW:TOR – Hope | Tusken Raiders Ci piacerebbe che il gioco fosse così :AAAAH:
  19. A mio modo di vedere, se un motore grafico riesce a muoversi in FullHD con adeguati livelli di antialiasing e AF solo con un minimo di 1000€ di schede video è un motore grafico fatto e pensato da scimmie, non da sviluppatori degni di questo nome... Tanto per capirsi: ho a che fare con modelli meteorologici e idrologici per lavoro. Questi modelli hanno un qualche livello di attendibilità. Potrei costruire un modello talmente accurato da prevedere quanti millimetri di pioggia pioveranno su tutta la terra il 20 giugno dalle 5.00 alle 17.34 UTC con una precisione al decimo di millimetro e risoluzione al metro quadrato. Il problema è che avrei la risposta 10 anni dopo, ed il risultato potrei verificarlo ma non mi servirebbe a nulla. Non avrei fatto un modello fighissimo, ma un modello idiota
  20. In realtà delle IGP con un minimo di senso aiuterebbero il gaming su PC allargandolo al casual tipico delle console, e in questo senso, benché anche a me non possa fregarne di meno delle IGP, un po' interessa a entrambi. D'altra parte le IGP intel, pur non essendo destinate al mercato delle GPU discrete sono sempre state diverse spanne sotto alle controparti ATi/AMD e nVIDIA. Ora che nVIDIA non è più nel mercato rimane solo una scelta per avere una IGP decente, e questo è male...
  21. Dopo i740 (qualcun altro abbastanza vecchio da ricordarsi?) decisi di non credere più a Intel sul comparto grafico. Dopo più di 10 anni sto ancora aspettando che Intel smentisca la mia convinzione, e dire che ci farebbe tanto comodo un terzo player funzionante da questo punto di vista Il lato positivo è che questa situazione darà probabilmente dello spazio di crescita ad AMD, bilanciando un po' un mercato CPU troppo monopolizzato da Intel...
  22. Speriamo non sia la delusione tecnologica che sono stati Crysis e Metro, anche se la necessità di renderlo girabile anche su console potrebbe renderlo bello e anche funzionante, al contrario degli illustri predecessori :|
×
×
  • Create New...