Jump to content

Ratatosk

Members
  • Posts

    285
  • Joined

  • Last visited

Everything posted by Ratatosk

  1. La 5830 decretava già buana parte della propria fine da sola, stava a riempire un vuoto di fascia di prezzo, ad accontentare unicamente chi avesse avuto esattamente quel budget, a quel prezzo ora c'è la 768M e ne prende totalmente il posto (nessuno sano di mente si prenderebbe la 5830 allo stesso prezzo). Per la fascia immediatamente superiore sono a 240€ la 1G e 260€ la HD5850, se a 1680x potrei preferire la prima per risparmiare quei 20€ (avendo deciso di non prendere la 768M per avere un po' di margine in più) in FullHD la distanza si fa troppo netta per non scegliere HD5850. Poi certamente possono scendere, ma ci penseremo in quel momento, vedendo cosa sarà sceso e quanto
  2. Io le recensioni di HWU non le guardo per motivi già evidenziati e dimostrati fino alla nausea In particolare per fare valutazioni sulle differenze globali alle varie impostazioni grafiche trovo comode quelle di computerbase e techpowerup, che riassumono a conclusione dividendo per risoluzione (e nel caso di cb anche per filtri). Da queste si vede bene come al salire di impostazioni grafiche la 5850 saluti tutti; mentre già a risoluzioni molto basse la 768 non tiene il confronto (e visto il prezzo è anche normale) ci vuole il FullHD perché il distacco diventi consistente dalla 1GB (per ovvi motivi di banda più che di quantitativo di memoria). Ovviamente per giocare a 1280x non ti compri una HD5850 (e nemmeno una GTX460, direi), ma posso dire con certezza che attualmente il best buy a 1680x è sicuramente la 768M (benché il distacco sia già sensibile dalla 5850, ma in termini assoluti va già benissimo e non si necessita di potenza addizionale), mentre in FullHD è la HD5850 ad esserlo da quando uscita e non se ne vede un'erede. La GTX460 1G costa troppo per quello che offre. Se faranno uscire una scheda con GF104 completo potrebbe essere la degna erede della HD5850, o addirittura superarla, in base a come decideranno di muoversi sulle frequenze.
  3. Per i prezzi si va dai poco più di 200€ per la 768MB ai 240-270 per la 1GB. Vanno quasi uguale alla HD5850 a 1680x senza filtri, impostazioni a cui il best buy è la 768MB. Salendo di risoluzione e filtri la HD5850 stacca anche nettamente GF104 in entrambe le versioni e in FullHD diventa (rimane) il best buy. Interessante il fatto che abbiano rivisto la struttura degli shader a raggruppamenti di 48 invece di 32 come in GF100. Da un lato questo è uno svantaggio quando si sia obbligati a fare disabilitazioni selettive del chip per aumentare gli yelds (come nel caso in esame di entrambe le versioni di GTX460, in effetti) perdendo molti SP quando si disabiliti ogni singolo blocco, dall'altro però il risultato netto del chip è quello di essere finalmente orientato al gaming e con molta meno area, consumi e temperature di GF100 ho la netta sensazione che sarebbe anche più performante se volessero produrlo anche nella versione "completa", visti i primi test di OC. La sensazione è che sia stato castrato per non pestare i piedi a GF100, almeno per il momento, ma se nVIDIA seguirà la strada tracciata con GF104 potrà tornare realmente competitiva in ambito gaming dopo i ripetuti bagni di sangue degli ultimi tempi (G200@65nm e GF100). Ovviamente ai 28nm, che sembrano ben lontani dall'essere prossimi per entrambe AMD (GF?) e nVIDIA (TSMC?). Se caleranno un po' il prezzo finalmente avremo cali anche dall'altra parte, che non mi farebbe schifo, di sicuro la 768MB si mangia la HD5830, che è obiettivamente sempre stata poco convincente e allo stesso prezzo non la prenderei nemmeno morto (un po' come per 5850 vs 470 a parti invertite).
  4. Io sono sempre per la fiducia, altrimenti il rapporto non vale nulla. Andasse male mandi affanc*lo, tiri una riga, e vai avanti. Il mondo e pieno di pheeka, se con una non va, andrà con la prossima o con quella dopo
  5. Se trovi il modo di farti mandare la fattura/scontrino dal negozio io potrei essere interessato, senza non me la sento, le schede high end sono le più esposte al rischio rottura (basta vedere su sto forum in quanti hanno fritto le GTX480, seppur probabilmente siano più fragili di questa).
  6. Lo faccio per genere, visto che ho un genere preferito e dovrei dire solo il primo della lista Gioco di Ruolo: Baldur's Gate Strategico in Tempo Reale: Starcraft Strategico a Turni: U.F.O. - Enemy Unknown Shooter: Unreal Sport: Sensible Soccer Avventura Grafica: The Secret of Monkey Island Arcade: Bubble Bobble (sì, lo so che non è per PC, ma c'è passato anche lui di rimbalzo ) MMORPG: Dark Age of Camelot
  7. Avendo la disponibilità di entrambi scegli l'Athlon, per i motivi che ti abbiam detto
  8. Il punto non è a cosa serve ma in quali occasioni genera errori Non è un caso se nessuno è fino ad oggi riuscito a ricreare le condizioni di halt usando un Barcelona/Agena nei test che si possono trovare ovunque sulla rete
  9. Per quanto il famoso bug del Phenom I sia del tutto irrilevante in ogni utilizzo esclusa la virtualizzazione io prenderei l'Athlon senza pensarci un attimo. Oh aspetta, l'ho appena fatto per regalare un PC a mia sorella, un 630 per l'esattezza
  10. E se siamo d'accordo io e te vuol dire che è praticamente verità assoluta
  11. Spendi 1000€ di schede video e non ne spendi 20 per dei cacciaviti fatti bene? La HD4870 l'ho smontata 4 volte per trovare la giusta posizione del dissipatore aftermarket e non è successo nulla. Basta un minimo di attenzione e non si rompe nulla :>
  12. Le parti interessanti da pagina 20 in poi: http://fit.zju.edu.cn/attachments/2010-05/01-1274068102-5148.pdf
  13. Direi di sì, la GPU l'hai cambiata, in alternativa del chipset. Prova a mettere la CPU a default e vedi cosa succede.
  14. [Rumour] ATI Radeon shortages possible in H2 2010 by VR-Zone.com | COMPUTEX 2010 Si sono dimenticati che quello è il momento in cui sarà stata attivata la nuova linea a 40nm. Quindi semmai la disponibilità potrebbe aumentare, non certo ridursi. Ad ogni modo per analizzare questa news bisognerebbe capire qual è la notizia secca prima delle considerazioni. Se la notizia è che ci sono nuove GPU nVIDIA -> le conclusioni sono sbagliate per i motivi che ho detto. Se la notizia è lo shortage delle VGA AMD -> la conclusione possibile è il ramping di Southern Islands. Insomma è una non notizia, come al solito
  15. Oggi sì, domani no, ieri nemmeno A dirla tutta te ne giochi 3, di GB, perché hai un sistema con 1GB di VRAM efficace. Ad ogni modo se prima ti sei preso la 5870 2GB o hai visto che non ti servono a nulla e ne basta 1 e quindi al momento di upgradare hai preso la 5970 2GB, oppure avresti dovuto prendere la 5970 4GB. In caso opposto, hai comprato la seconda scheda sbagliata, spendendo inutilmente di più quando potevi comprare la 1GB D'altra parte non mi sembra che ti stai lamentando di buttar via 3GB della tua VRAM con il tri-SLI
  16. La RAM è la stessa, 1024MB, per entrambe le schede Come ti ho detto nel caso si voglia potenziare il sistema senza dover prendere una seconda top il CF con schede diverse ha senso. E' meglio con schede uguali? Certo. Con le Radeon hai le due possibilità, con le GeForce no, è un vantaggio delle Radeon e basta. Poi se non ti interessa non lo fai, ma di certo non è uno svantaggio avere scelta. L'enthusiast prende sempre il massimo in quelunque momento. Tu prendi il massimo di una sola marca
  17. Compro una 5870. Non mi basta. Compro una 5850 e faccio un CF. Va più di una 5870 avendo le prestazioni di un CF di 5850. Il senso ce l'ha e come. Certo è ovvio che se per abitudine ti compri 3 VGA top solo nVIDIA a scatola chiusa appena escono qualunque ragionamento sul senso che possa avere comprarsi delle Radeon perde significato
  18. Che GF100 fosse una GPU per il GPU Computing lo penso più o meno da sempre, e infatti lo scrivevo già più di un anno fa, e quasi tutti ormai se ne sono accorti. Il rapporto ALU:TEX dimezzato di GF104 (se conformato, manteniamoci questa sicurezza) gli darà molti meno limiti nei giochi, soprattutto quelli più TEX-intensive, ovvero quelli DX9 e in generale programmati "alla vecchia maniera". Ma il limite più grosso di Fermi è senz'altro l'incapacità di nVidia di affrontare il processo a 40nm (già di per sé pessimo) di TSMC, con la conseguenza di yelds disastrosi e frequenze target mancate di un bel po'. GF104 pur ereditando tutti i problemi architetturali e di processo di GF100, per il solo fatto di essere grande circa la metà vedrà questi problemi ridursi, e quindi verrà fuori come un chip sicuramente meglio riuscito. Ovviamente poi saranno i game-benchmark a darci delle risposte più chiare sull'argomento, ma: - Si parla di 150W di TDP. - Si parla di due alimentazioni PCIe supplementari (2x6pin). Le due cose sono chiaramente in contraddizione, perché 150W sono 1x6pin, probabilmente sono 150W come sono 250W quelli di GF100, cioè "molto ottimistici", e si scontreranno con Juniper, di cui avrà prestazioni simili (presumibilmente maggiori alle risoluzioni/filtri più alte e inferiori alle più basse), con un consumo esorbitante (a confronto). Probabilmente a nVidia con GF104 conviene attaccare quella terra di mezzo fra 5770 e 5850 in cui la 5830 ha obiettivamente deluso (con 24ROPs sarebbe stata la scheda perfetta per quella fascia). Resta da vedere, come ultima nota, se il GF104 completo riuscirà a raggiungere le frequenze obiettivo che erano di GF100 senza infrangere la barriera dei 300W, nel qual caso ci sono tutti i motivi perché GF100 vada EOL al più presto e GF104 diventi GTX580/GTX570/GTX560.
  19. Non lo conoscevo ma buono a sapersi, un nuovo sito da aggiungere alla mia comoda blacklist
  20. Su questo non avevamo dubbi nemmeno prima, no? Unico "pregio" che posso riconoscere a Metro 2033 è che chi effettivamente ha speso 1000/1200€ in VGA almeno vede il risultato (che è il tuo caso) ma chi non lo ha fatto trova risultati estetici assai superiori in altri engine che hanno mostrato oltre a prestazioni notevoli anche ottimi e crescenti risultati estetici nel tempo. Un engine che copre l'1% del mercato dei videogiocatori PC per me è un fallimento, per te no, ma solo perché vedi la situazione stando in quell'1%
  21. Un po' scarno ma interessante come prima prova, aspettiamo i driver WHQL per dare un giudizio definitivo. Comunque io parlavo di tri-SLI di 480 e CF di 5970, che sono un po' sopra a quella prova, e parlavo di Metro 2033, non di eyefinity/surround (che fra parentesi nFinity sarebbe suonato molto meglio, anche se forse sarebbe stato un po' troppo sospetto) Hai scritto quello che ho scritto io, cioè che per dare il massimo ci vogliono 1000-1200€ di VGA (CF di 5970 o trilSLI di 480). Visto che per funzionare decentemente con una 480/5870 graficamente deve essere settato molto peggio di altri giochi che invece ci girano egregiamente c'è qualcosa che non va nella progettazione dell'engine. Voglio dire che con una 4870 1GB ti vedi Mass Effect 2 (Unreal Engine) al massimo splendore, con un risultato estetico migliore di quello ottenibile da Metro 2033 su una 5870/480, volendolo far girare ugualmente bene. Perché l'engine diventi più bello di ME2 devo settarlo abbastanza alto da richiedermi un CF/SLI, questo significa che il motore è fatto male, non che è scalabile
  22. Quello stesso tipo di commenti, cambiano le parole usate, riguardano ATi, AMD, Intel, MSI, ASUS, Gigabyte etc... senza escludere nessuno. Semplicemente tendono ad aumentare nei confronti di aziende che in quel momento arrancano e ad assottigliarsi con quelle che invece vivono un momento positivo. Quante volte hai letto dei catastrofici driver ATi? Eppure milioni di persone non hanno avuto alcun tipo di problema con gli stessi, e poi magari si bollano come sprovveduti quelli che si vedono bruciata una VGA perché hanno installato un driver WHQL di nVidia. Basterebbe un po' di equilibrio, ma non è di questo mondo
  23. Certo non si può paragonare una 5870 (350€) ad un tri-SLI di 480 (1200€), d'altra parte se serve un tri-SLI di 480 per far funzionare un engine grafico al suo top qualcosa che non va c'è. Tuttavia dubito fortemente che con due 5970 (1000€) vada male. Come side note so che il bollino del proprio hardware da una sensazione di essere tenuti in grande considerazione, ma di fatto è unicamente co-marketing.
  24. Probabilmente non mi servirà mai grazie a questo segreto di Pulcinella (ma evidentemente non tutti conoscono Pulcinella ), comunque ben fatto, guida interessante e utile per il troubleshooting dei non amici di Pulcinella Curiosità come hai scoperto sta cosa? :cheazz:
×
×
  • Create New...