delly Posted January 16, 2010 Share Posted January 16, 2010 Mamma mia come corri.... quei test come ti ho detto valgono zero. quoto Jen... achille...che test volevi che ti facevo che non ho capito??? Link to comment Share on other sites More sharing options...
delly Posted January 16, 2010 Share Posted January 16, 2010 ah...ok... si prevede il solito "panino" allora...era prevedibile... Link to comment Share on other sites More sharing options...
gianni1879 Posted January 16, 2010 Share Posted January 16, 2010 unico pcb stando alle ultime news sui consumi la vedo mooolto difficile, era prevedibile il panino Link to comment Share on other sites More sharing options...
Rsdj Posted January 16, 2010 Share Posted January 16, 2010 unico pcb stando alle ultime news sui consumi la vedo mooolto difficile, era prevedibile il panino Si ma quella notizia è old, mi pare sia stata pubblicata lo stesso giorno del CES... non capisco come possano dire di averla pronta ad aprile se in quel mese uscirà la single gpu?? Link to comment Share on other sites More sharing options...
dj883u2 Posted January 16, 2010 Share Posted January 16, 2010 ecco l'immagine che mi avevi chiesto: Io leggo: Loop 1 4283 total frames Loop 2 4304 total frames Perfetto. Link to comment Share on other sites More sharing options...
Rsdj Posted January 17, 2010 Share Posted January 17, 2010 (edited) Direttamente dal sito ufficiale PDXLAN - Home: GF100 will be at PDX LAN 15!! JUST ANNOUNCED!!! Tuesday, 12 January 2010 NVIDIA Club SLI members will get a chance to win one!!! Making their very first LAN appearance will be some systems with the upcoming GF100 graphics card. Besides being some of the first gamers to get to see GF100, Club SLI members will get the first chance to actually win a GF100!!!* And some icing on the cake…..the card will be signed by NVIDIA CEO Jen-Hsun Huang! Contest details: Come to PDX LAN 15 and show NVIDIA, as well as the rest of the LAN, how excited you are about GF100. This can be done by such things as but not limited to: - Making a sign that says how awesome you think GF100 is going to be - Creating a GF100 t-shirt or costume Think NVIDIA is about to open up another can of WHOOP-ASS? Think GF100 is going to be best card ever? Let everyone at the LAN know about it. NVIDIA staff will choose the three people who they think are the most excited about GF100 to compete for a signed GF100 graphics card. Details of that competition will be announced at the event. Good Luck! Contest Rules: Rule#1- You must be a member of NVIDIA’s Club SLI (You be asked to verify your Club SLI membership at the event) Rule#2- You must be a registered and paid attendee of PDX LAN 15 Rule#3- You must have your SLI system at PDX LAN 15. Got a SLI system but not a member of Club SLI? Sign up today! *Note: Prize of a GF100 graphics card signed by Jen-Hsun Huang will be awarded when GF100 graphics cards become publically available. L'evento si svolge dal 15 al 18 gennaio 2010. Non mi sembra parli di una presentazione di GF100, a quanto ho capito è solo a scopo pubblicitario. Edited January 17, 2010 by Rsdj Link to comment Share on other sites More sharing options...
dj883u2 Posted January 17, 2010 Share Posted January 17, 2010 esatto io ve l'avevo detto. il 18 forse sapremo qualcos'altro. Sei troppo avanti!:AAAAH: L'avori alla Nvidia? Domani sapremo di + allora. Link to comment Share on other sites More sharing options...
delly Posted January 17, 2010 Share Posted January 17, 2010 bene...attendiamo domani... Link to comment Share on other sites More sharing options...
gianni1879 Posted January 17, 2010 Share Posted January 17, 2010 Google Translate Link to comment Share on other sites More sharing options...
dj883u2 Posted January 17, 2010 Share Posted January 17, 2010 Google Translate Ottimo! Ma adesso, dopo tante parole, un po di test "seri" li potrebbero mettere. Del resto, sono da diversi giorni che circolano le indiscrezioni che il GT380 è + veloce del HD5870, che motivo c'è di nascondere ancora.....forza Nvidia, è ora di mostrare pubblicamente "Fermi"! Link to comment Share on other sites More sharing options...
delly Posted January 17, 2010 Share Posted January 17, 2010 22k al vantage... freq cpu??? physx on oppure off??? :cheazz: Link to comment Share on other sites More sharing options...
dj883u2 Posted January 17, 2010 Share Posted January 17, 2010 22k al vantage...freq cpu??? physx on oppure off??? :cheazz: Tutto campato in aria.....non si capisce...se è senza physx è ottimo...se è con physx attivo, niente di che... Sarebbe ora che la stessa Nvidia mostrasse le reali prestazioni. Questi test "campati" in aria, non danno una bella immagine del azienda.... Il dire e non dire non è segno di serietà....è ora che ci siano test seri! Forza Nvidia, stiamo aspettando con ansia. Link to comment Share on other sites More sharing options...
delly Posted January 17, 2010 Share Posted January 17, 2010 Tutto campato in aria.....non si capisce...se è senza physx è ottimo...se è con physx attivo, niente di che...Sarebbe ora che la stessa Nvidia mostrasse le reali prestazioni. Questi test "campati" in aria, non danno una bella immagine del azienda.... infatti...detto così non vuol dire nulla... Link to comment Share on other sites More sharing options...
Darkcool Posted January 17, 2010 Share Posted January 17, 2010 Ragazzi, ma se la versione singola Gpu consuma 250-300 watt, quanto cavolo consuma la dual gpu??? Link to comment Share on other sites More sharing options...
dj883u2 Posted January 17, 2010 Share Posted January 17, 2010 Ragazzi, ma se la versione singola Gpu consuma 250-300 watt, quanto cavolo consuma la dual gpu??? Niente...perchè è impensabile che con una scheda cosi al limite riuscire a fare una vga dual gpu.... Link to comment Share on other sites More sharing options...
dj883u2 Posted January 17, 2010 Share Posted January 17, 2010 Le due schede andrebbero congfrontate disabilitando il Physx, visto che le ati non lo sfruttano....questo per garantire un giudizio prestazionale equilibrato. Ecco cosa fa una singola HD5970 senza Physx.....tirando un po il processore e la scheda: Questo è quello che fa una singola HD5870 sempre senza Physx: Questo per dire che quel test al 3DMark Vantage senza "parametri" certi di riferimento non ha senso.... Comunque, anche ipotizzando che il GF380 faccia senza Physx on i 22.500 punti, quello che non capisco è il perchè scrivono che la scheda va il 20% più veloce di una singola HD5870 tirata a 1000Mhz ci core. Una HD5870 portata a 1000Mhz di core fa circa 21.500 Punti. La differenza sarebbe del 4,54% a favore della Nvidia Fermi GF380 e non del 20%.....come riportato.... Pertanto, come detto, i risultati lasciano veramente il tempo che trovano....dobbiamo aspettare dati + certi. Link to comment Share on other sites More sharing options...
One1ros Posted January 17, 2010 Share Posted January 17, 2010 Questo per dire che quel test al 3DMark Vantage senza "parametri" certi di riferimento non ha senso.... Comunque, anche ipotizzando che il GF380 faccia senza Physx on i 22.500 punti, quello che non capisco è il perchè scrivono che la scheda va il 20% più veloce di una singola HD5870 tirata a 1000Mhz ci core. Una HD5870 portata a 1000Mhz di core fa circa 21.500 Punti. La differenza sarebbe del 4,54% a favore della Nvidia Fermi GF380 e non del 20%.....come riportato.... Pertanto, come detto, i risultati lasciano veramente il tempo che trovano....dobbiamo aspettare dati + certi. Impossibile non quotare Link to comment Share on other sites More sharing options...
Rsdj Posted January 17, 2010 Share Posted January 17, 2010 bè tralasciando la voce che dice che la ATI era cloccata, magari c'erano impostazioni particolari nel bench o magari no. Ma comunque scusa DJ ma se il 22.5k di Nvidia fosse vero vorrebbe dire che una 5870 tirata al max possibile non sarebbe in grado di battere una GTX 380 a default ? Se fosse vero possono anche far uscire la 5890 ma perderebbe comunque. considera poi che è vero che la GTX 380 è prevista con TDP compreso fra 250 e 300W ( anche se però penso poco più di 250, valori oltre sarebbe na roba inaccettabile ) ma se batte la ATI in tutte le sue frequenze.....e poi una 5870 a oltre 1.2V e 1Ghz non consuma mica poco o sbaglio. Vedremo cosa ci darà la GTX 360 che è prevista con 2*6Pin e 225W di TDP. La 5870 a default quanto fa al bench ? Guarda che molto probabilmente la 380 per essere almeno un po' competitiva uscirà con frequenze già tirate al massimo... quindi secondo me quel test, sempre se è attendibile, è stato fatto con entrambe le schede al massimo. Tra l'altro ho letto da qualche parte (non ricordo bene dove) che la 380 avrà 448sp e non 512sp... per ora solo rumors, vedremo... Link to comment Share on other sites More sharing options...
Rsdj Posted January 17, 2010 Share Posted January 17, 2010 leggi le news che ho postato sopra. no scusa la presentazione la si fa a default non in overclock Quella news non è ufficiale, è ciò che va in giro da novembre. Quale presentazione? Non mi risulta sia stata falta alcuna presentazione. sono convintissimo che le schede che tirerà fuori nVidia saranno già overcloccata a palla per essere competitive... questo spiegherebbe il pechè del consumo e del calore. Caro Achille, non è tutto oro quello che luccica Link to comment Share on other sites More sharing options...
Severnaya Posted January 17, 2010 Share Posted January 17, 2010 quando uscirà con quel ritardo un vantaggio anche del 10% è veramente poco vedendo poi che costoprestazioni avrà fermi, con la 5890 se il vantaggio è basso ci si può aspettare come minimo un livello prestazionale del tutto simile se nn anche in qualche caso superiore Link to comment Share on other sites More sharing options...
dj883u2 Posted January 17, 2010 Share Posted January 17, 2010 (edited) 4.54% contro una RV870 a 1Ghz quindi ATI non è stata in grado di battere Nvidia manco in OC. Li parla che la GT380 va il 20% in + di una HD5870 con overclock a 1000Mhz....o sparano stupidagini...oppure sono solo fanNvidia abbastanza depressi.... Ho postato che sono sparate fatte solo per far ridere.....se va bene è un 4,54%...in + rispetto ad una HD5870 portata a 1Ghz.....sempre se non siano sparate fantasiose...perchè in due giorni, sono enerse diverse "stupidagini" ad incominciare dal 25% in + di prestazioni con il gioco Far Cry 2...poi dimostrato che se va bene si arriva ad un 12%....per finire adesso con questo 3DMark Vantage sparato senza capo nè testa.... Detto questo...visto che la notizia del 20% è una emerita "fesseria", sono propenso a pensare che i 22.000 punti siano stati fatti da una GT380 con abilitato il Physx....sinceramente non mi stupirebbe + di tanto..... Analizzando fino adesso quello che si è intravisto.....cercando di essere + obiettivi possibili e non dei farlocchi fan....potremmo avere la seguente situazione al lancio del Nvidia Fermi GT380: Nei giochi e nel 3DMark Vantage la scheda potrebbe andare mediamente un 15% in + rispetto alla HD5870 con frequenze a default....... La tua brava Nvidia invece di postare test sensa senso, incominci a fare vedere le reali prestazioni...sono 4 mesi che "spara" dicendo che la sua scheda è la migliore....ancora non si è visto un bel niente....le parole stanno a zero....ci vogliono i fatti....forza cara Nvidia, tira fuori i fatti! Siamo stanchi di test privi di senso!....cosi facendo Nvidia stà perdendo credibilità! E' smettetela di dire che i driver sono immaturi!.......ma se è stata la stessa Nvidia ad aver annunciato che vuole far uscire "Fermi" non prima di Marzo perchè vuole assicurare a tutti i suoi potenziali clienti "driver" maturi.....allora neanche voi credete a quello che dice Nvidia, oppure vi arrampicate sugli specchi!...... Sinceramente se è questo lo scenario....mi vengono i brividi! Lo ripeto ancora una volta....che vada meglio Ati o Nvidia a me non importa un'emerito bel niente!... Aspetto risultati "Seri" stasera alle 03.00 del mattino su Fermi,visto che finisce questo fantomatico NDA..... no chiacchiere! E se domani non c'è niente su "Fermi" che mi dirai? Edited January 17, 2010 by dj883u2 Link to comment Share on other sites More sharing options...
dj883u2 Posted January 17, 2010 Share Posted January 17, 2010 INTANTO sembra che la GTX 380 sia stata presentata e l'NDA scadrà alle ore 21.00 USA, e 3 del mattino italiane. ECCO il LINK Nvidia: GF100 en h?zl? GPU, çift GPU'lu DirectX 11 modeli de yolda! Quì possiamo vedere l'entusiasmo di qualche appassionato. LINK su altre indiscrezioni riguardo le specifiche. Google Translate Quì vengono dette alcune specifiche sulla GTX 360 dicendo che avrà 448 stream e 320bit di ampienzza di banda di 1.28GB di GDDR5 e 2*6PIN di alimentazione. Mentre la 380 dovrebbe avere un TDP fra i 250 e 300W, alimentati da 6+8 PIN di alimentazione a avrà 384 bit di ampiezza di banda e i fatidici 512 stream e freqeunze più alte ovviamente. Ma li hai visti in faccia?...le loro faccie parlano da sole.....se sono questi che hanno tirato fuori quei test...allora stiamo freschi! Link to comment Share on other sites More sharing options...
Severnaya Posted January 17, 2010 Share Posted January 17, 2010 va che l'8% in più nn è poco... Link to comment Share on other sites More sharing options...
Rsdj Posted January 17, 2010 Share Posted January 17, 2010 DJ non quoto tutto di quello che hai detto, perchè indipendentemente dalle stupidagini o no che han detto su ATi a scopo pubblicitario, devi considerare che far cry 2 non solo è un titolo che ha avantaggiato ATi anche prima ma la RV870 ha anche driver maturi. 12% potrebbe diventare un buon 20% di media all'uscita se consideriamo i giochi più di parte Nvidia come crysis. comunque non per dire ma se io sono un po' dalla parte verde, tu non è che sei neutrale Antonio non è neutrale ma è schierato da una parte... dalla parte della verità. Continui a uscirtene con questa storia dei driver quando è stata nVidia stessa a dire che GF100 uscirà con driver maturi per esprimere il massimo potenziale sin da subito. Su quel bench a Far Cry 2 cìè tanto da discutere e ancora continui a prenderlo come esempio... cmq se anche fosse vero, come dimostrato nel test da Antonio basterebbe overcloccare la 5870 per superare gli 80 fps di media così da stare praticamente incollata alla 380. p.s: dove avresti sentito che Far Cry 2 avvantagia le ATI?? :cheazz: Ma li hai visti in faccia?...le loro faccie parlano da sole.....se sono questi che hanno tirato fuori quei test...allora stiamo freschi! va che l'8% in più nn è poco... .......:2funny: ....... Link to comment Share on other sites More sharing options...
dj883u2 Posted January 17, 2010 Share Posted January 17, 2010 (edited) DJ non quoto tutto di quello che hai detto, perchè indipendentemente dalle stupidagini o no che han detto su ATi a scopo pubblicitario, devi considerare che far cry 2 non solo è un titolo che ha avantaggiato ATi anche prima ma la RV870 ha anche driver maturi. 12% potrebbe diventare un buon 20% di media all'uscita se consideriamo i giochi più di parte Nvidia come crysis. comunque non per dire ma se io sono un po' dalla parte verde, tu non è che sei neutrale Partendo dal presupposto che i driver diventano "circa maturi" per una nuova architettura dopo 6/7 mesi...in questo lasso di tempo maturano solo i driver Nvidia?...e quelli ati invece peggiorano.......del resto il CCC oltre ad essere pesante, fa sparire pure le ram! Guarda caso 6/7 mesi è il lasso di tempo che Nvidia è stata costretta a far passare prima di immettere sul mercato la nuova architettura Fermi rispetto alle ati.....Fermi prima di Marzo non la vedremo.... Se mi vieni a dire che i driver daranno ancora un boot prestazionale cosi grande, significa che allo stato attuale Nvidia non stà sviluppando nessun drver per Fermi.....allora la cosa mi fa pensare che Nvidia non ha nessuna sheda pronta....:perfido:...non penso che sia cosi..... Lasciamo perdere che il gioco "Far Cry 2" sia avvantaggiato dalle schede Ati...perchè è semplicemente ridicolo....ma come.....hai sempre sostenuto che Nvidia "collabora" con i programmatori per ottimizzare i driver per le sue schede, cosa che ati non fa, e adesso mi parli di gioco pro ati?.....dai su, fai il bravo! Che tu sia Fan Nvidia mi va bene, animi la discussione, ma permettimi, visto che mi stò godendo sia le HD5870 che le HD5970 di dimostrare che certi punteggi mostrati insieme a dei test diciamo cosi "generici", non rispecchiao la reale situazione....guarda caso a vantaggio di Nvidia... Questo è per corettezza nei confronti dei lettori. Che Nvidia andrà meglio di Ati non me ne frega proprio niente, anzi, lo spero proprio per diversi motivi, che ho + di una volta indicato. Altro errore che nolti "fan" di Nvidia fanno è quello di pensare che la HD5890 altro non sarà che un modello con aumentate le frequenze lavorative.....io non sarei cosi sicuro,anche perchè ati potrebbe aver lavorato ben 6 msei per sviluppare altre cose.... Edited January 17, 2010 by dj883u2 Link to comment Share on other sites More sharing options...
Recommended Posts