Jump to content

Ratatosk

Members
  • Posts

    285
  • Joined

  • Last visited

Posts posted by Ratatosk

  1. a che servono nuovi chipset se poi dovranno cambiare socket con l'introduzione di Piledriver?

    A questo punto è lecito sperare che rimarranno su am3+?

     

    Da quanto ho capito piledriver sarà su am3+ mentre quello dopo di cui non mi ricordo il nome (steamroller?) sarà su un nuovo socket (fm2) che sarà già usato anche per i piledriver 10c.

     

    Devo dire che l'idea di droppare il 10% dei posti di lavoro nel reparto pr e marketing del nuovo ceo è ottima, il marketing amd è stato confusionario e senza alcuna crediilità negli ultimi anni, compresa la comunicazione sui socket futuri.

  2. Mi sono preso di recente un paio di Tt Chaser MK-I e sono soddisfattissimo sia per la parte di cable management con passacavi ovunque sia per il drive bay superiore con cui mi sono tolto di mezzo quello esterno. E ha le ormai obbligatorie porte usb3 frontali (in realtà superiori e non frontali).

     

    E per le tue esigenze di raffreddamento a liquido ha anche i passatubi posteriori, qualora ti servano.

     

    Unico neo sono le ventole di serie un po' rumorose, ma questo non è un problema irrisolvibile ;)

  3. Altra nota che mi era venuta in mente scrivendo il primo commento e che mi è passata mentre lo scrivevo.

     

    In ambito HPC sono convinto che BD per come è oggi sia già più che ottimo. In questi ambiti infatti non c'è posizione dominante che tenga, i progetti vengono pensati e compilati maniacalmente sull'hardware, con tutte le ottimizzazioni possibili. Viste quindi le tante novità in quanto a istruzioni che BD ha, non ho alcun timore in merito.

     

    In particolare ci sono vendor che spingono in una direzione, penso magari a DELL che per comprare 4 server con processore AMD (per un totale di appena 8 processori, niente di trascendentale) lo scorso anno ho dovuto penare 6 mesi perché insistevano a farmi preventivi con Intel, ma quando dico HPC intendo quello vero, intendo Cray e i suoi clienti, intendo chi lo fa davvero in ambienti di produzione, non chi si compra tre Tesla per farci delle prove e dice di fare "GPU computing".

     

    Va aggiunto che il mercato desktop più importante, quello dei volumi, AMD lo copre benissimo con i core Bobcat e Llano (o almeno lo farebbe come competitività di prodotto, poi non riesce a produrne a sufficienza e quindi siamo da capo), con cui se riuscisse ad avere volumi degni di nota potrebbe fare veramente male a Intel (che dei volumi enormi ha bisogno per mantenere il proprio circolante e non collassare su sé stessa).

     

    Le CPU FX è evidente che sono pensate per il mondo server e hpc e che arrivano su quello desktop un po' così, non progettato per essere cpu desktop.

     

    Abbiamo anche visto che in quello workstation la situazione è molto varia, ma in media Intel da maggiori garanzie di performance (nei casi particolari di usi MT INT-intensive invece l'acquisto giusto sarebbe AMD).

     

    Per dare un vero giudizio sull'architettura penso che dovremmo farlo valutandola nell'ambito per cui è stata progettata, sono quindi curioso di vedere nei prossimi tempi qualche prova hardware in campo server per arrivare ad un giudizio completo.

     

    Quale che sia, ovviamente, in ambito desktop c'è di meglio di bulldozer, sia come performance pure, sia come rapporto prestazioni/prezzo.

  4. l'analisi la trovo corretta e la posso condividere

    cmq guarderei anche altre recensioni su siti più affidabili (io anandtech è da qualche anno che non lo reputo più attendibile, si fino a poco tempo fà guardavo solo i test sugli ssd, ma ora le review di molte altre testate sono qualitativamente migliori e si possono escludere coinvolgimenti esterni) :)

     

    La mia abitudine e' leggere Anand e [H] :>

  5. direi che e il punto di vista più oggettivo letto in questi giorni. condivido

     

    per il resto vediamo cosa faranno con il successore trovo però assurdo dover pensare a cosa verrà dopo a un prodotto appena uscito. poi c'e il discorso di poca trasparenza di amd quasi a voler ingannare l'acquirente ...

     

    magari con uno stepping migliore e cache più veloci la situazione migliora un po senza dover aspettare bd2

     

    comunque devo dire una cosa. tempo fa lessi che amd era sempre avanti come innovazione (portando ad esempio il phenom 1 con 4 core in un Die e il Nb integrato) e con questo progetto, tuttavia in entrambi i casi non e stato il successo sperato

     

    Se devo dare un parere più personale, lasciando un attimo da parte l'analisi di due post fa, sono molto molto deluso, per una serie di motivi.

     

    Questa CPU non è da buttare, è un grande passo architetturale che getta le basi di una strada futura, anche se prestazionalmente il gap non è colmato (erraticamente talvolta un 2600K viene superato, più spesso viene superato un Phenom II, talvolta fa peggio di entrambi). In media va meglio di un Phenom II e molto spesso se la gioca con SB. Quindi NON è una schifezza.

     

    Il problema è:

    - ho letto per mesi JF-AMD dire che l'IPC aumentava (si leggeva anche delle performance, ma lui parla di throughput quindi voleva dire tutto e niente e si attendono recensioni server per capire), e l'ho visto incazzarsi anche con un troll (perché lo era) che continuava a dire che scendeva per una serie di motivi e lui a ripetere che aumentava.

    - ho letto un post di JF-AMD che diceva che l'ipc non vale nulla perché quello che conta è quello insieme con la frequenza.

    - il marketing di AMD ha sbandierato la figosità della scelta di 8c veri invece che finti.

     

    Invece:

    - L'IPC scende.

    - La frequenza è troppo bassa per recuperare la perita di IPC.

    - Se il codice è fp viene bastonato dagli 8 core finti di un 2600K.

     

    Fossero stati zitti fino adesso e avessero tirato fuori BD avremmo detto "che figo, che bel design, il futuro è roseo". Per capire il concetto: anche la HD4800 non colmava il gap con nvidia, ma gli appassionati gridarono al miracolo (erano stati zitti cuciti fino all'ultimo secondo).

     

    Invece hanno solo ottenuto che i fan intel ora ghignano e trollano e hanno pure ragione a farlo, mentre quelli amd (quale io sono sicuramente, non ho problemi ad ammetterlo perché so bene di essere in grado di essere obiettivo e credo di dimostrarlo con i miei - pochi - post) si sentono presi per il culo, che lo ammettano o meno. Questo ha generato la debacle odierna. Dopo Agena e dopo aver fatto spero un confronto interno con il settore grafico, questo aspetto doveva cambiare radicalmente, e ciò non è successo. Inutile dire che di tutto ciò la responsabilità maggiore è del CEO e lo zampino del Products Group General Manager ci dev'essere nella parte virale del marketing. Indovinate chi è stato fatto a pezzi e buttato agli squali in AMD di recente? Entrambi.

     

    Speriamo che i successori abbiano capito il senso delle due dipartite...

  6. Premetto che mi sono letto una sola recensione, parola per parola, quella di Anand.

     

    Quello che viene fuori dalla recensione è che la costruzione di un'architettura che sacrifica la potenza grezza per la frequenza si è rivelata per la seconda volta un errore (Netburst la prima).

     

    - I processi produttivi stanno diventando sempre più difficoltosi, ha problemi di vario genere anche Intel che fa il processo sull'architettura e viceversa, figuriamoci se non li può avere AMD che è fabless.

    - Gli aumenti di frequenza portano aumenti superlineari dei consumi.

    - Quando si hanno problemi su un processo si devono ridurre le frequenze.

    - Più il target di frequenza è alto più ci sono problemi a ottenere buoni risultati sul processo.

     

    Tutti questi motivi già sottolineano come puntare sulla frequenza invece che sull' "IPC" sia un errore strategico. Inoltre il branch prediction AMD non è mai stato un fulmine di guerra e allungare le pipeline per raggiungere più alte freq. significa peggiorarne ulteriormente i disastri. E anche le latenze delle cache pensate per frequenze mostruose diventano una disgrazia nel momento in cui non le raggiungi.

     

    Tutto questo a fronte di un front-end ridotto rispetto ai Phenom II, che però non credo sia il vero problema. Benché abbiano ridotto molto questa è una cosa che il monitoraggio del prodotto precedente può aver indirizzato in maggiore efficienza dell'uso delle risorse che nel Phenom erano sottoutilizzate.

     

    Aggiungiamo a tutto ciò una L3 la cui utilità è discutibile, se non in server space, e abbiamo un chip enorme che in ambito desktop e workstation fa schifo:

     

    - le prestazioni sono erratiche rispetto alla concorrenza esterna (SB) ed interna (PhII) e benché un acquirente potrebbe anche solo usare 7zip sul suo PC, normalmente si cerca la prevedibilità dei risultati e la costanza nelle varie condizioni (vedere il successo del Crucial m4 per confronti in altri campi)

    - in usi single threaded la situazione è quasi tragica (e questo fa vedere come la riduzione del front end non è un problema, visto che in ST in cui un core non condivide le risorse va peggio che in MT)

    - in usi MT full-INTvola, in quelli MT FP-intensive si addormenta (il motivo è ovvio, ma il risultato è l'erraticità dei risultati).

     

    Che conclusioni si possono trarre?

     

    - Scegliere la strada dell'IPC mette al riparo da o comunque riduce gli effetti di problemi sul processo produttivo. Se poi il rpocesso è un bijoux niente vieta di andare sopra il target e fare ancor più bella figura: è sbagliata la strategia.

    - Fare un solo progetto non paga: per l'ambito desktop, visto che l'obiettivo erano alte frequenze, avrebbe pagato molto più progettare un die a due moduli privo di L3 a frequenze pazzesche: si sarebbe posizionato benissimo (aspettiamoci qualcosa del genere per trinity).

    - Il mercato desktop non è pronto ai quad, figuriamoci ad un progetto pensato per il throughput, anche non fosse stato sottoperformante quanto è BD.

    - Una grossa fetta del mercato workstation, per quanto residuale, non se ne fa niente di una cpu che muore in fp.

     

    Tutto ciò, anche con la tara delle performance molto più basse di quelle che AMD si attendeva, fa capire molto bene come il mercato desktop di fascia medio-alta non sia una priorità per AMD. Ora mi aspetto di vedere due cose:

     

    - Cosa ottengono con Trinity, visto che il progetto sarà rivisto, con l'integrazione della parte grafica, in funzione del mercato mobile/mainstream desktop. Come dicevo mi aspetto 2 moduli senza L3 + la GPU in meno di 170mm^2 (contro i circa 230 di Llano ed i 315 di BD).

    - Quali risultati otterrà BD nella sua derivazione Opteron, quindi in ambiti strettamente legati al mondo server, e per questo attendo Anand con la sua recensione, anche se spesso mischia usi workstation a quelli propriamente server in certe recensioni, ma sarà facile dividerle per farsi un'idea piuttosto chiara.

  7. Si pero specie sui giochi, si sentiva un po la debolezza del ST...

    Sicuramente nel rendering e programmi che sfruttano bene il MT viaggeranno via bene con gli 8 cores...

     

    In realtà si sentiva più la dimensione della cache che non le performance ST, almeno a risoluzioni da gamer, e si cominciano anche a vedere differenze importanti fra i dual core ed i quad a vantaggio di questi ultimi, certo mi aspetto che le prestazione ST vadano a pareggiarsi (percento più, percento meno) fra i due marchi, ma non è così essenziale, le rensioni delle CPU a 1280x1024 lasciano molto il tempo che trovano, chi si compra una CPU da 300$ per giocare lo fa nel peggiore dei casi su un FullHD (ormai i monitor FullHD te li tirano dietro), quel che conta, si sa, è la VGA, e le DX11 traggono molto vantaggio dal multicore in assit al rendering.

     

    Insomma io anche andasse il 10% in meno in test ST di un quad intel a pari prezzo prenderei sicuramente l'x8. E prevedo di prendere il più lento del gruppo.

  8. Io spero in un evoluzione dell'architettura piuttosto che un semplice Die shrink...

    Per quanto riguarda questo 28nm forse AMD "salta" i 22nm per passare direttamente ai 20/18nm...

     

    Un half node, se non è uno shrink ottico mi sembra abbastanza inutile.

     

    Tanto più che hanno abbandonato gli half node anche nelle GPU perché troppo costosi rispetto alla vita attesa e non c'è più una fonderia che ne progetta di nuovi.

     

    Unica possibile spiegazione alternativa è che vogliano allineare tutti i processi alla stessa geometria, se possono condividere risorse fra i processi bulk e SOI, ma non credo sia il caso, 100% dei tools sarà incondivisibile se non forse in qualche percento del tutto non prioritario.

     

    Mi sembra che in AMD e GF regni la confusione al momento, così come ha regnato ha fasi alterne più o meno da sempre. Direi che il motivo della fucilazione ed esposizione del cadavere del CEO a Piazzale Loreto oggi ha qualche risposta in più...

×
×
  • Create New...