Jump to content

Search the Community

Showing results for tags 'non'.

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • XtremeHardware
    • Concorsi
    • Notizie dal Web
    • Recensioni e Articoli
  • Annunci del forum
    • Annunci dallo staff
    • Presentazione nuovi utenti
  • Hardware
    • CPU & Overclock
    • GPU & Overclock
    • Schede Madri & RAM
    • Alimentatori
    • Reti e Modem
    • Case
    • Retrocomputing
  • Periferiche Hardware
    • Audio e HiFi
    • Gaming e non solo
    • Monitor
    • Periferiche di memorizzazione
    • Periferiche varie
  • SOS veloce
    • Problemi Software o Driver
    • Problemi Hardware
    • Consigli per gli acquisti
  • Xtreme Overclock
    • XtremeHardware-OC-Team
    • Xtreme Overclocking Help
  • Small Form Factor (SFF Mini-itx, HTPC, NAS, Nettop)
    • SFF: Guide, Consigli e Configurazioni
    • SFF: CPU, Mainborad, VGA, Accessori
    • SFF: Chassis, PSU, Cooler, Nettop
  • Cooling
    • Air Cooling
    • Water Cooling
    • Extreme cooling...
  • Modding e galleria
    • Modding
    • Bitspower - Supporto Ufficiale
    • Galleria PC Utenti
  • Mondo Mobile
    • Navigatori Satellitari
    • Notebook
    • Tablet
    • Smartphones
    • Lettori mp3/mp4 e Navigatori Satellitari
  • Elettronica e Programmazione
    • Programmazione
    • Elettronica e sistemi embedded
    • Nuove tecnologie
    • Bitcoin e altre criptovalute
  • Software
    • Software per Windows
    • Linux & MAC
  • Multimedia
    • Fotografia, Fotoritocco e grafica
    • Video, Videocamere e Video-editing
    • TV e lettori multimediali
  • Giochi & Console
    • PC Games
    • Console
  • Mercatino
    • Vendita Hardware
    • Vendita Cooling
    • Vendita Varie
    • Acquisto Hardware
    • Acquisto Cooling
    • Acquisto Varie
  • 4 chiacchiere...
    • Piazzetta
    • Musica, cinema e sport

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Scheda Madre


Processore


Ram


Scheda Video


Case


Notebook


Occupazione


Interessi


Città


Biografia


Homepage


Icq


Aim


Yahoo


Msn


Skype


Facebook username

  1. Ciao a tutti. Ho installato Office 2007 Enterprise su un pc con presenti sia Mozilla Firefox che Thunderbird. Solo che da allora, c'è il problema che il client di posta non mi riconosce i link email esterni. Cioè, se clicco su una mail in una pagina internet, mi si apre 52 volte internet explorer. Questo sia che clicco da Firefox che da Explorer. Mi compare anche questo messaggio: "Impossibile eseguire l'operazione. il client di posta predefinito non è installato correttamente!". Eppure ho controllato in "strumenti > opzioni > generali" ed il Thunderbird è impostato come il programma di posta predefinito. Ho la versione 2.0.0.6 e ho provato anche a reinstallarlo, ma niente da fare. Il problema si è verificato subito dopo l'installazione di Office; prima cliccando sui link, il programma di posta si apriva perfettamente di default. Come risolvere, senza disinstallare office? Grazie mille __________________ come vedere film nuove idee per regalo forum scuola superiore servizio realizzazione sito internet
  2. I nuovi penryn non saranno solo un die shrink degli attuali conroe, al contrario di quanto si pensa , integreranno molte nuove features : La microarchitettura vedrà quindi varie modifiche alle seguenti logiche e aree: Wide Dynamic Execution, Advanced Smart Cache, Advance digital Media Boost e Intelligent Power Capability. Wide Dynamic Execution: introduzione del radix-16 divider e di una teconlogia di virtualizzazione migliorata. IL processore sarà in grado di processare 4 bit per ciclo anziché 2 come avviene ora con l'architettura Conroe, mentre le latenze d'utilizzo di macchine virtuali saranno diminuite da 25 al 75%. La tecnologia Advanced Digital Media Boost vedrà l'inclusione del nuovo set di istruzioni SSE4 con benefici nell'accelerazione video e in tutte le altre applicazioni che contano molto sulla grafica. Le versioni mobile potranno godere di miglioramenti nella tecnologie di risparmio energetico. Ci sarà un nuovo stato, più efficiente dell'attuale C4, dove la velocità e il voltaggio del core saranno molto bassi, e le cache L1 e L2 saranno completamente spente. Fonte: Tomshw
  3. Helsinki - CSS, la tecnologia anticopia in dotazione ai DVD, è da tempo stata resa inoffensiva dagli hacker: sin dal rilascio, nel lontano 1999, del DeCSS ad opera di DVD Jon e sodali, copiare i videodischi digitali ha ben pochi impedimenti pratici per gli smanettoni, e non solo per loro. Il DRM più clamorosamente fallimentare della storia non rappresenta una protezione efficace dei dischi e pertanto, ha deciso la corte distrettuale di Helsinki, Finlandia, bypassarlo non può costituire reato.
  4. San Francisco (USA) - Linux Foundation si è detta pronta a difendere gli utenti di Linux che venissero denunciati da Microsoft per violazione di brevetto. La promessa, fatta dal direttore dell'organizzazione Jim Zemlin, arriva a ridosso delle controverse accuse scagliate da Microsoft contro Linux e altri software open source, tacciati di infrangere oltre 230 brevetti.
  5. Roma - Lo ha scritto il celebre esperto di cose di rete Stefano Quintarelli e lo stanno riprendendo di ora in ora molti siti e blog: è tempo che si parli del futuro della connettività e che lo si faccia in modo pubblico ed aperto, affinché il futuro dell'infrastruttura forse più strategica di qualsiasi altra, quella che rende possibile la Società dell'informazione, non sia deciso da un solo operatore senza strategie condivise. In ballo c'è moltissimo.
  6. Milano - La Polizia postale di Campobasso si è recata nei giorni scorsi a Segrate per far visita alla sede di Tele2, nell'ambito di un'operazione che fa parte di un'inchiesta aperta dalla Procura della Repubblica del capoluogo molisano in seguito alle segnalazioni di un rilevante numero di attivazioni non richieste di contratti telefonici.
  7. Roma - Sono davvero sconfortanti i dati pubblicati dalla Commissione Europea circa la diffusione della banda larga sul territorio italiano: stando a quanto riportato dal rapporto dell'Eurobarometro, il tasso di penetrazione italiano si attesta sul 14%, mentre la media dell'Europa dei 27 arriva al doppio, il 28%. Fra gli stati con la crescita più "interessante" e progressiva, rispetto al 2005, spicca la Gran Bretagna (+9%), ma anche Francia e Germania toccano valori non trascurabili (+6%). La crescita italiana non supera invece il 3%. La situazione italiana non è una novità e Altroconsumo avverte: "Oggi l'ADSL non è fruibile da 6 milioni di utenti in Italia, pur considerando l'accesso alla Rete un bene universale. Una connessione lenta pone il cittadino in una condizione di serie B: scarsa possibilità di scelta, problemi di sicurezza, con più elevate possibilità di imbattersi in dialer, e tariffe più alte, per chi utilizza intensamente internet, fino a 7 volte in più con l'UMTS e 8 volte e mezzo in più con il satellite". "La velocità di connessione - sostiene l'associazione - è un crinale che separa chi è dentro la società da chi è fuori. La rete appartiene a Telecom Italia, che da ex-monopolista offre come provider servizi di telefonia e di internet veloce e contemporaneamente fissa le tariffe per i suoi concorrenti per l'utilizzo della rete. Altroconsumo attende dall'Autorità per le Garanzie nelle Comunicazioni interventi incisivi, affinché non ci siano più utenti di serie B, laddove Telecom non ritiene e non ha ritenuto fruttuoso investire. Perché la rete diventi finalmente una risorsa per tutti, per Altroconsumo è necessario un salto di qualità negli investimenti nel comparto tecnologico del nostro Paese, che già soffre di un gap nelle strutture. La rete, separata da Telecom, dovrà essere gestita in modo efficiente". "Per ottenere ciò - conclude l'associazione - il modello che Altroconsumo propone di adottare è One Network, che prevede la compartecipazione di vari operatori nella gestione della rete sotto il controllo dell'AGCOM. Sarebbero garantiti investimenti di ammodernamento sulla rete, con benefici diretti per tutti i gestori, nell'interesse dello sviluppo del Paese". I problemi del mercato TLC italiano sembrano non esistere in paesi come l'India: The Economic Times riferisce infatti che il governo locale intende offrire a tutta la cittadinanza, entro il 2009, un servizio gratuito di connettività broad band attraverso le compagnie telefoniche statali BSNL e MTNL, basato sul contributo (anche finanziario) di tutte le telco operanti nello Stato, allo scopo di fornire forza tecnologica propulsiva a tutte le attività economiche Fonte: Punto Informatico
  8. Quando all'inizio del 2007, durante il CES di Las Vegas, Warner presentò il Total HD ci siamo detti: "È fatta, fine della format war". Purtroppo non è ancora così, o perlomeno, ci toccherà aspettare il 2008. Per chi non lo ricordasse, il Total HD non è altro che un disco ibrido che combina gli standard HD DVD, Blu Ray, DVD e CD su un unico supporto. Per fare questo, il disco ibrido sarà caratterizzato da layer HD DVD e Blu Ray sovrapposti. Steve Nickerson, vice presidente senior del marketing management di Warner, ha rilasciato alcune dichiarazioni per aggiornare il pubblico sullo stato del Total HD: "Non abbiamo mai fissato una data per la disponibilità, quindi non stiamo correndo. Lo faremo quando avrà senso e quando sarà giusto". Warner ha intenzione di presentare inizialmente sul mercato 10/20 titoli, obbligando i rivenditori a dedicare una sezione separata di esposizione rispetto agli attuali HD DVD e Blu-ray. Fonte: Tomshw.it
  9. Benché Nintendo abbia venduto più unità in questi primi giorni di commercializzazione rispetto a quanto è riuscita a fare Sony con PlayStation 3 e nonostante gli evidenti problemi nella produzione in massa della console, Sony rimane fiduciosa per il lancio della propria console di nuova generazione in Australia. Quella dell'Australia è una situazione molto simile a quanto accadrà in Europa, visto che in entrambi i territori PlayStation 3 sarà immessa sul mercato a partire dal prossimo mese di marzo. Sony si ritroverà con un ritardo di quattro mesi nei confronti di Nintendo Wii e di undici mesi per quanto concerne il confronto con XBox 360, il cui lancio australiano è avvenuto nell'aprile del 2006. A proposito di queste problematiche, Nic Foster, general manager di Sony Australia & New Zealand, ha rilasciato le seguenti dichiarazioni al Sydney Morning Herald: "Wii è un dispositivo per una vera esperienza videoludica. E' più divertente e più intuitivo, ma PS3 è un sistema di intrattenimento esteso. Quindi può essere divertente e piacevole con i videogiochi, ma può anche essere una suite completa per altre applicazioni, come la riproduzione di filmati in formato Blu-ray, la possibilità di accedere alla propria musica e alle proprie foto e di interagire con PSP". Un'altra interessante dichiarazione di Foster è la seguente: "i giocatori sono perfettamente consapevoli di cosa accadrà e di cosa vogliono. Quindi hanno già una perfetta conoscenza di cosa offre PlayStation 3 in confronto a cosa offre Wii e probabilmente molti di loro compreranno entrambe le console". Sempre restando in ambito Sony, bisogna segnalare che da ieri sono disponibili negli Stati Uniti i primi giochi PS One emulati su PSP. Si tratta di Crash Bandicoot, Syphon Filter, Tekken 2, Cool Boarders e Hot Shots Golf 2. Per poterli giocare è necessario scaricarli sull'hard disk di PlayStation 3 e trasferirli, successivamente, su PSP. Questa complessa procedura sarà comunque evitata in futuro, quando PSP sarà in grado di accedere direttamente ai giochi tramite connessione Wi-fi. fonte: hwupgrade
  10. MERCURY RESEARCH avverte che AMD per un po’ avrà problemi nella spedizione dei suoi chip. Secondo news.com, Mercury Research sostiene che AMD sta affrontando un momento, critico visto che la sua domanda complessiva sta aumentando mentre le nuove tecnologie di produzione non sono ancora del tutto pronte a fronteggiarla. L’analista Dean McCarron ha fatto sapere che AMD ha avuto bisogno di un numero maggiore di fabbriche per adattarsi alla strategia aziendale di progettazione per l'era del quad-core. Ha anche dovuto gestire il passaggio a transistor di dimensioni più ridotte mentre metteva nuovi centri di produzione in fase operativa. McCarron ha spiegato che la domanda di chip AMD è stata elevata, ma i processori dual core dell’azienda erano ancora fermi alla tecnologia a 90 nanometri. L'analista ha detto che i processori Opteron e Athlon 64, con i loro due core in un singolo elemento di silicio, hanno un fascino d’altri tempi, ma sono già sorpassati. Il CFO di AMD Bob Rivet ha dichiarato che l’azienda non apprezzerà il vantaggio in termini di costi/benefici dal passaggio ai processori a 65 nanometri fino al quarto trimestre. Ma AMD non ha ancora completato neanche la transizione dai wafer da 200 millimetri a quelli da 300 millimetri, e così molti altri aggiornamenti necessari non sono ancora stati completati per il grande momento. Forse AMD sta cominciando a pentirsi di aver fatto di Dell il suo partner strategico, facendo arrabbiare il suo canale esistente e sentendosi forzata a rifornire di chip che non ha ancora prodotto le scatole di latta di Michael Dell. L’affare Dell, anche se sulla carta può sembrare un vantaggio, sta infatti assorbendo la maggior parte della capacità produttiva dell’azienda. Fonte: TheInquirer
  11. Roma - Se l'introduzione della tecnologia WiMax in Italia dovesse subire ulteriori ritardi rispetto ai recenti annunci, sarebbe comprensibile il levarsi di nuove roventi polemiche. Ma il Governo, ribadisce il Ministro delle Comunicazioni Paolo Gentiloni, "sta procedendo abbastanza velocemente e entro l'estate sarà pronto il bando di gara".
  12. Roma - Nell'infuocato dibattito sull'assegnazione delle licenze WiMax e su chi debba disporne e come, si rischia di perdere di vista il punto fondamentale: chi ha diritto a quelle frequenze? Un nodo che il diritto già risolve, imponendo che sia la legge a dover definire non tanto chi può usare il bene pubblico, ma le modalità con cui chiunque possa utilizzarlo per generare capacità trasmissiva massima. Perché? Basta fare un salto indietro. Prima di tutto è bene sapere che le emissioni delle onde elettromagnetiche che consentono la telecomunicazione costituiscono energie, pertanto beni mobili ex art. 814 c.c. Se un tempo si riteneva l'etere un bene comune, di tutti, e si doveva all'abbondanza rispetto alle esigenze dei privati, le cose sono cambiate nel 1976: la Corte Costituzionale (sentenza n. 202/1976) dichiara "costituzionalmente illegittimo" il monopolio RAI e di fatto liberalizza le trasmissioni radiofoniche e televisive su scala locale. Ciò da vita ad un proliferare di emittenti, per cui dall'abbondanza dello spettro si passa alla sua scarsità. Tutto questo porta alla legge 223 del 1990, in cui l'etere viene dichiarato bene pubblico e, in quanto tale, sottratto all'uso generale: in altre parole è possibile utilizzarlo solo dietro autorizzazione specifica (licenza, concessione). E la competenza in materia, in base alla legge sulle comunicazioni del 2001, è ora del ministero delle Comunicazioni. Quale patrimonio indisponibile dello Stato, dunque, l'utilizzo delle frequenze per finalità di impresa non può che essere realizzato tramite licenza. Tutto bene? Non proprio. Lo spettro oggi viene considerato scarso, e dunque ha quella che viene definita rilevanza giuridica, perché la sua scarsità può provocare conflitti tra privati (cfr. "ofemilità" - termine proposto dal sociologo economista Vilfredo Pareto). La verità, però, è che lo spettro non è scarso. Il passaggio oramai quasi completo da trasmissioni prettamente analogiche a trasmissioni quasi interamente digitali ha ripercussioni troppo profonde per essere affrontato in modo monocorde in chiave solo giuridica, economica o tecnologica: non è un semplice avanzamento tecnologico appannaggio dei tecnologi, o un nuovo modo con cui gli economisti possono alimentare l'economia, o uno strumento per aiutare governativamente i digital-divisi, ma una vera e propria rivoluzione profondamente poliedrica! Come ha dimostrato David P. Reed all'Autorità TLC americana (la FCC), i risultati scientifici contro-intuitivi della teoria dell'informazione in ambienti multiutente dimostrano che continuare a regolare lo spettro radio nell'ottica della scarsità è proprio ciò che ne determina la scarsità. In altre parole: lo spettro radio non è scarso di per sé, ma è la legge stessa che confondendo la limitatezza dello spettro con la scarsità della capacità trasmissiva risultante dall'approccio tradizionale, lo rende scarso e quindi finisce per limitarne il valore. Se si prende atto delle nuove risultanze scientifiche - fisica, teoria dell'informazione - e delle nuove possibilità tecnologiche (ndr: WiMax 74mbit a 50km con soli 30 dollari per apparato) per un uso più proficuo dello spettro radio, il tutto esaltato dalle nuove necessità popolari (il pubblico interesse) che premono sempre più con petizioni e blog per una ridefinizione delle strutture di mediazione - alias operatori - forse sarebbe opportuno un nuovo intervento legislativo in materia. La dimostrata non-scarsità dello spettro radio deve indurre il legislatore a riconsiderarne la natura giuridica. Se la scarsità non è più un attributo di rilievo, ciò che va normato è semmai l'utilità economica della capacità trasmissiva. La norma, ripeto, dovrebbe quindi definire non tanto chi può usare il bene pubblico, ma le modalità con cui chiunque può utilizzarlo per generare capacità trasmissiva massima, che è il modo più utile in assoluto. Non si tratta di tornare all'idea di uno spettro radio come bene comune di tutti, quanto invece disporre in modo illuminato di un bene che necessita di una norma che ne garantisca l'armonica fruibilità della collettività. Seguendo un concetto caro al professor Stefano Rodotà, le regole, per essere seguite e rispettate armoniosamente non possono precedere la vita, ma debbono seguirla ed assecondarla. Il progresso tecnologico rappresenta una delle esternazioni primarie dell'intelletto umano, e necessita di una regolamentazione continua che ne segua gli sviluppi, ma soprattutto che non ne impedisca la fruibilità finendo per rallentare lo sviluppo della società. Fonte: PuntoInformatico
  13. Roma - Quando all'inizio del 2003 SCO Group intentò causa ad IBM accusandola di aver copiato in Linux porzioni di UNIX, l'azienda affermò che la violazione riguardava "migliaia di linee di codice". Oggi Big Blue afferma che le linee incriminate sono soltanto 326, e nessuna di queste infrange le proprietà intellettuali di SCO
  14. Una delle innovazioni che AMD dovrebbe introdurre con le nuove versioni di processore Athlon 64 costruite con tecnologia a 65 nanometri riguarda la compatibilità con vecchie schede madri, compatibili da lato Socket e alimentazione ma non aggiornate per quanto riguarda il bios. E' questo uno scenario che si presenta di frequente nel momento in cui si procede ad aggiornare il processore del proprio sistema: la nuova cpu richiede un microcode aggiornato, disponibile solo con una delle ultime versioni di bios. Se questa non è stata precedentemente installata, il nuovo processore non funzionerà e sarà necessario utilizzare una cpu di precedente generazione, aggiornare il bios con quest'ultima e quindi sostituire con il nuovo processore. AMD implementerà nelle nuove cpu Athlon 64 una modalità di compatibilità innovativa, che permetterà di bypassare temporaneamente questa limitazione. Alla base l'utilizzo di codice in un registro unificato che permette al sistema di avviarsi anche con microcode assente, così che il sistema sia in ogni caso accessibile. All'accensione del sistema con nuovo processore senza microcode aggiornato nel bios, pertanto, il processore risponde positivamente ma forzando frequenza di clock e voltaggio di alimentazione ai valori minimi. Gli utenti dovranno quindi provvedere ad agigornare il bios della scheda madre, ma potranno farlo senza dover ricuperare un processore di precedente generazione per avere compatibilità con la scheda madre. Il nome di questa tecnologia, come riportato dal sito HKepc, è quello di SafeBoot; al momento attuale non è stato ancora stabilito quando AMD attiverà questa funzionalità nelle proprie future cpu, e come supporterà i produttori di schede madri affinché possano sfruttare questa tecnologia. fonte:Hwupgrade
  15. Altair, nome affibbiato al core K8L, sarà il cardine delle proposte Athlon 64 FX e Athlon 64 X4, figuranti 512 KByte di cache L2 per core e cache L3 unificata di 2 Mbyte. Le frequenze di core non saliranno, un po' come avvenuto con le proposte dual-core di Intel (Core 2 Duo) che quindi secondo indiscrezioni, saranno comprese tra 2.7 e 2.9 GHz. Dal progetto K8L non nasce solo Altair, ma anche Antares. Questa proposta sarà dual-core e debutterà sempre nel terzo trimestre. Sempre in ambito dual-core AMD introdurrà Arcturus. Quali sono le differenze tra queste due soluzioni? L'assenza di cache L3 in Arcturus. Le restanti specifiche di Antares indicano frequenze di 2 GHz e 2.1 GHz (TDP di 35 watt), mentre le versioni più prestanti saranno così suddivise: * Le proposte da 2.4 GHz a 2.7 GHz presenteranno un TDP di 65 watt * Fino a 2.9 GHz presenteranno un TDP di 89 watt Arcturus occuperà solamente la fascia da 2.1 GHz a 2.3 GHz, raggiungendo un TDP di 65 watt. Novità anche nel settore single core: arriva Spica, nel quaro trimestre. Su questa proposta non ci sono al momento dettagli.
  16. Stando alle informazioni non ufficiali di Dailytech, NVIDIA dovrebbe presentare due versioni di scheda GeForce 8800: la prima modello GeForce 8800 GTX, soluzione top di gamma, e la seconda GeForce 8800 GTS, posizionata sempre nel segmento superiore del mercato ma ad un costo inferiore. Per entrambe ritroviamo sistema di raffreddamento a due Slot, con la possibilità di un sistema ibrido aria - acqua per la soluzione top di gamma. Le differenze tra le due schede riguardano sia il quantitatvo di memoria, che le funzionalità integrate all'interno delle GPU. Entrambe dovrebbero avere un design con shader unificati, e non separati come si è da lungo tempo speculato sarebbe stato l'approccio scelto da NVIDIA per G80. La soluzione GeForce 8800 GTX integrerebbe 128 unified shader, indicati da NVIDIA come "stream processors", con frequenza di funzionamento di 1,35 GHz, mentre per la GPU GeForce 8800 GTS il numero scenderebbe a 96, con frequenza di clock ridotta a 1,2 GHz. La logica di gestione, le ROPs, gli scheduler e le altre componenti dell'architettura avranno frequenze di funzionamento di 575 MHz per la GPU GeForce 8800 GTX e di 500 MHz per quella GeForce 8800 GTS. Passando al versante memorie, troviamo due distinti approcci: per la scheda GeForce 8800 GTX avremmo bus memoria da 384bit, con quantitativo di memoria video pari a 768 Mbytes e chip GDDR3 con frequenza di clock di 900 MHz. Per la soluzione GeForce 8800 GTS, invece, il bus memoria sarebbe pari a 320bit, con dotazione di memoria pari a 640 Mbytes e frequenza di clock di 800 MHz sempre con moduli GDDR3. Significative le informazioni circa i requisiti di alimentazione per queste schede video: si parla di 450 Watt per una scheda GeForce 8800 GTX, valore che scende a 400 Watt per la soluzione GeForce 8800 GTS, con un picco di 800 Watt consigliati per un sistema SLI con due schede GeForce 8800. Ovviamente stiamo parlando di indicazioni conservative, pensando più alla potenza degli alimentatori utilizzati dagli OEM nei propri sistemi che a quella delle soluzioni retail di marca disponibili sul mercato, tipicamente con migliore efficienza e quindi tali da necessitare di un'inferiore potenza di targa. La scheda GeFore 8800 GTX dovrebbe integrare due connettori di alimentazione a 6 pin, mentre per la soluzione GeForce 8800 GTS se ne dovrebbe trovare uno solo. Segnaliamo come le informazioni attualmente disponibili indichino anche la presenza di un anti aliasing 16x per le schede G80, tale da superare la limitazione a 8x delle attuali generazioni di architetture video NVIDIA quando utilizzate in contesto di singola GPU. Accanto a questo nuovo filtro anti aliasing, troviamo HDR con precisione a 32bit, oltre ad un non meglio precisato "Quantum Physics" che farebbe pensare ad un engine programmabile simile a quello PureVideo specificamente introdotto da NVIDIA per la gestione della fisica nei giochi. E' inoltre presumibile che NVIDIA abbia scelto di gestire in modo più efficace il proprio filtro anisotropico, che nella implementazione delle GPU G70 non è complessivamente allo stesso livello di quelle Radeon R5x0 di ATI. Al debutto, le schede G80 dovrebbero posizionarsi come le più veloci soluzioni disponibili sul mercato; la loro vera forza, tuttavia, non verrà pienamente sfruttata se non con il debutto del sistema operativo Windows Vista e delle API DirectX 10, al quale seguiranno si auspica a breve i primi titoli pienamente sviluppati con queste API e quindi in grado di sfruttare le caratteristiche di queste nuove GPU. Le soluzioni concorrenti di ATI, nome in codice R600, dovrebbero debuttare nel corso dei primi mesi del 2007, in concomitanza con il lancio di Windows Vista.
  17. Intel è proiettata verso il primo quad-core desktop, con il primo modello Core 2 Extreme QX6700 che si presenterà al mondo il mese prossimo. Seguentemente Intel proporrà a inizio 2007 la gamma Core 2 Quad, considerata più accessibile finanziariamente. La seconda generazione di Quad-core, secondo quanto riportato da Digitimes, sarà rappresentata da Yorkfield che debutterà nel terzo trimestre del 2007. A differenza dell'ormai prossimo Kentsfield, questa nuova soluzione presenterà cache condivisa tra ogni coppia di processori e un processo produttivo a 45 nanometri. Yorkfield si presenterà insieme alla famiglia di chipset Bearlake, con supporto all'FSB 1333MHz e all'interfaccia PCI Express 2.0. I primi sistemi con la seconda generazione di processori quad-core saranno caratterizzata dall'accoppiata Bearlake X e DDR3-1333. AMD invece inizierà la produzione a 65 nanometri alla fine del 2008, proponenendo i 45 nanometri solo a metà 2008. Alla fine del 2007 AMD avrà una gamma di proposte dual core completamente a 65 nanometri, mentre i single-core saranno "rinnovati" per l'80%. La risposta ai quad-core di Intel arriverà solo nel terzo trimestre 2007, e come ben sapete si chiamerà K8L. Architettura K8L I punti salienti di questa soluzione saranno: * Processo produttivo a 65 nanometri * Frequenze tra 2.7 GHz e 2.9 GHz. * 512KB di cache L2 per ogni core * 3 MB di cache L3 condivisa * Nome del core K8L: Altair * Hyper-Transport 3.0
  18. ciao a tutti, ho creato 2 siti ftp da IIS (s.o. windows server 2003 sp2), uno usa la porta 21 (quella di default) e l'altro la 22. quando mi connetto con un client ftp, il sito che sta sulla porta 21 funziona perfettamente, mentre a quello sulla porta 22 riesco a collegarmi però non riesco a visualizzare l'elenco delle cartelle.... sul router le porte sono corretamente reindirizzate verso l'ip locale del server. dove sbaglio? grazie in anticipo!
  19. CANBERRA (Reuters) - Una trisnonna australiana che aveva abbandonato la scuola a 12 anni è ritenuta la persona più vecchia del mondo ad aver ottenuto una laurea. Phyllis Turner si è laureata in medicina alla Australia Adelaide University, iniziando a studiare a 90 anni. "Mi sono sentita molto contenta dopo cinque anni di studio, ma mi dispiace che sono un po' malferma", ha detto ai giornali australiani la signora Turner, che usa un bastone per camminare. Il suo relatore di tesi, il professor Maciej Henneberg, ha detto di essere rimasto colpito dall'energia della signora e dalla sua dedizione allo studio. "Mentalmente era come qualsiasi altro studente", ha detto il professore. "Non riuscivi a distinguere il suo modo di pensare, il suo entusiasmo e i suoi interessi da quelli di un 25enne. Ha una mente vivace", ha detto a Reuters. "Cercheremo di farla entrare nel Guinness dei primati", ha affermato il professore. Per maggiori informazioni: Reuters
  20. Salve ragazzi, sono al mio primo post. Ho acquistato una Asus P5K Deluxe. Montata con un alimentatore Enermax da 500 Watt, 2 moduli RAM Kingston da 1 GB cadauno, Intel E6700, Video ATI X1950Pro, HD Seagate SATA II da 400 GB, Un masterizzatore Plextor e un lettore Asus sull'unico canale P-ATA disponibile sulla mobo. All'accensione (case aperto per eventuali interventi prima della chiusura definitiva) il pc parte ma dopo pochi secondi si spegne, poi riparte da solo e pochi secondi dopo ancora si spegne, e così via in un loop senza fine. Ho controllato tutte le impostazioni ma non riesco a capire cosa non permette il corretto avvio. Preciso che nel passato ho assemblato parecchi pc ma non ho avuto mai questa strana situazione. Qualcuno ha suggerimenti/soluzioni? Grazie Ardimentoso
  21. Sony afferma che tra le cause dell'andamento poco convincente della Playstation 3 c'è una percezione negativa ingiustificata, creata "dalla proliferazione di Internet". Dave Karraker, direttore della divisione comunicazioni corportate di SCEA, è abbastanza fiducioso della reputazione della PS3: "Sono abbastanza sicuro che se chiedete a qualsiasi vero giocare se vorrebbe avere una PS3, la risposta sarebbe un risonante 'Sì'". Parlando delle critiche rivolte alla console, Karraker ha affermato: "Penso che molte di queste siano da addebitarsi alla proliferazione di Internet, dove una piccola minoranza può far molto rumore, alterando la percezione delle masse, sia che abbiano ragione oppure no". Fonte: tomshw.it
  22. Era un po' che ci pensavo e oggi l'ho fatto mettimo in questo thread le foto dei nostri amici a quattro zampe (cani, gatti, ecc.) o anche meno che ci tengono compagnia tutti i giorni Inizio io con la mia cagnolina di nome Kyra che è in casa con noi dal 7 anni Qui si mette in posa per la foto Poi ecco la sua attività preferita quando non abbaia a cani o uccelli che passano davanti casa Mentre in inverno va sotto coperta :ROTFL: Dai su ragazzi postate le vostre foto Valerio
  23. Ragazzi aiutatemi a capire cosa c'è che non va. Ho assemblato il computer, quando accendo praticamente su schermo non compare nulla, certe volte invece capita che rimane 10 secondi acceso, dopo di che si spegne. Su schermo ripeto, tutto nero non visualizzo nulla. All'inizio era la mainboard, infatti mi è stata sostituita (credo) ora provando e riprovando niente, potrebbe essere la cpu ? Inizialmente, avevo danneggiato la motherboard per un overclock troppo spinto della cpu, speravo di aver danneggiato solo la mobo, invece a quanto pare c'è qualcos'altro. Ulteriore problema, è che non posso provare i componenti su un'altro Pc, di conseguenza non so regolarmi, se portare in RMA la cpu, oppure fare un'altro RMA con ePrice, che dice di avermela sostituita, ma a me sembra la stessa. (motherboard). Grazie
  24. Neanche il tempo di riprenderci dal marasma generato dall'arrivo della Playstation 3 in Europa e dall'annuncio di Xbox 360 Elite Oltreoceano, che emergono indiscrezioni sull'arrivo di un terzo modello di Playstation 3. A detta di un documento pubblicato da Kotaku (qui l'originale della FCC), Sony avrebbe fatto una richiesta di cambiamento della componentistica della console presso la US Federal Communications Commission. Il cambiamento non dovrebbe essere di grande natura, dovrebbe contemplare infatti un hard disk da 80 GByte e un nuovo modulo Bluetooth, dando vita per l'appunto a una terza Playstation 3. Fonte della News
  25. Buongiorno a tutti, ho un problemino: ho cambiato mobo e CPU, ho preso una AS-Rock Dual-VSTA e un P4-350 per riciclare le mie DDR400 della V-Data ( 2 banchi da 1 Gb ). Dopo aver ritirato il PC dall'assemblatore e averci lavorato un po', ho curiosato nel BIOS e ho visto che le ram erano settate come DDR333: ho provato a cambiarle in DDR400, ho riavviato: tutto OK, il PC ha funzionato per diverse ore. Dopo qualche giorno, l'ho riacceso, ha funzionato per 5 min. e poi si è congelato; spento, riacceso: non riparte. Tolgo un banco di ram, accedo al BIOS, rimetto DDR333 ( tutti gli altri parametri erano e rimangono in AUTO), il PC riparte. Riaggiungo l'altro banco di RAM: tutto OK. Arrivo alla domanda: cosa devo fare per sfruttare le ram per quello che dovrebbero fare, cioè andare a 400? Grazie in anticipo per i Vs. suggerimenti Fulvio
×
×
  • Create New...