<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[Il computer che ci legge nel pensiero]]></title><description><![CDATA[<p>Mostrare i sogni su uno schermo,Fantascienza?Non proprio.All'università della California a Berkeley i neurologi Shinki Nishimoto e Jack Gallant hanno chiesto a volontari sottoposti a risononanza magnetica di vedere dei trailer di film.Un software intanto analizzava sia le immagini che i volontari sravano guardando sia il livello di attività delle varie parti del loro cervello.</p>
<img src="http://www.xtremeshack.com/immagine/i117332_brain-computing-small-c.jpg" alt="i117332_brain-computing-small-c.jpg" />
<p>L'attività cerebrale è registrata dalla risonocanza magnetica come una sorta di mappa tridimensionale del cervello, in cui ogni cubetto di pochi millimetri di lato,un cosidetto voxel,è associato al corrispettivo livello di attivazione dei neuroni al suo inyerno,indicato da quanto sangue li sta alimnetando.I ricercartori hanno costruito una serir di mappe di attività cerebrale,corrispondenti ognuna a una scena diversa.La presenza di una figura umana,per esempio attivava una certa mappa di voxel,diversa da quella di un treno in corsa.</p>
<p>Accumulati molti dati,Nishimoto e Gallant hanno poi tentato di far ricostruire a un software cosa stesse vedendo un volontario sulla base dell'attivazione dei voxel nella sua risononanza magnetica. Il software ha fuso l'insieme di scene casuali tratte da Youtube,fino a ricrearne una che,secondo i suoi calcoli, avrebbe prodotto la stessa attività cerebrale registrata nella persona in quel momento.</p>
<p>L'immagine è confusa,ma in effetti simile a quella vista.La speranza è che in futuro si possano visualizzare su uno schermo i pensieri di persone che non possono comunicare,perchè paralizzate o in stato vegetativo.</p>
<p><strong> </strong></p>
<p><strong> </strong></p>
<p><strong>Fonte:La Repubblica</strong></p>
]]></description><link>https://www.xtremehardware.com/forum//topic/22815/il-computer-che-ci-legge-nel-pensiero</link><generator>RSS for Node</generator><lastBuildDate>Wed, 08 Apr 2026 05:53:07 GMT</lastBuildDate><atom:link href="https://www.xtremehardware.com/forum//topic/22815.rss" rel="self" type="application/rss+xml"/><pubDate>Mon, 31 Oct 2011 16:39:11 GMT</pubDate><ttl>60</ttl><item><title><![CDATA[Reply to Il computer che ci legge nel pensiero on Sat, 19 Nov 2011 16:33:23 GMT]]></title><description><![CDATA[<div contenteditable="false"><div><iframe width="459" height="344" src="//www.xtremehardware.com/forum/applications/core/interface/js/spacer.png" frameborder="0" allow="encrypted-media" data-embed-src="https://www.youtube.com/embed/KMA23JJ1M1o?feature=oembed"></iframe></div></div>
<p>This video is organized as follows: the movie that each subject viewed  while in the magnet is shown at upper left. Reconstructions for three  subjects are shown in the three rows at bottom. All these  reconstructions were obtained using only each subject's brain activity  and a library of 18 million seconds of random YouTube video that did not  include the movies used as stimuli. (In brief, the algorithm processes  each of the 18 million clips through the brain model, and identifies the  clips that would have produced brain activity as similar to the  measured activity as possible. The clips used to fit the model, the  clips used to test the model and the clips used to reconstruct the  stimulus were entirely separate.) The reconstruction at far left is the  Average High Posterior (AHP). The reconstruction in the second column is  the Maximum a Posteriori (MAP). The other columns represent less likely  reconstructions. The AHP is obtained by simply averaging over the 100  most likely movies in the reconstruction library. These reconstructions  show that the process is very consistent, though the quality of the  reconstructions does depend somewhat on the quality of brain activity  data recorded from each subject.</p>
]]></description><link>https://www.xtremehardware.com/forum//post/327512</link><guid isPermaLink="true">https://www.xtremehardware.com/forum//post/327512</guid><dc:creator><![CDATA[One1ros]]></dc:creator><pubDate>Sat, 19 Nov 2011 16:33:23 GMT</pubDate></item><item><title><![CDATA[Reply to Il computer che ci legge nel pensiero on Sat, 19 Nov 2011 16:32:20 GMT]]></title><description><![CDATA[<div contenteditable="false"><div><iframe width="480" height="270" src="//www.xtremehardware.com/forum/applications/core/interface/js/spacer.png" frameborder="0" allow="encrypted-media" data-embed-src="https://www.youtube.com/embed/nsjDnYxJ0bo?feature=oembed"></iframe></div></div>
<p>The left clip is a segment of a Hollywood movie trailer that the subject  viewed while in the magnet. The right clip shows the reconstruction of  this segment from brain activity measured using fMRI. The procedure is  as follows:</p>
<p>[1] Record brain activity while the subject watches several hours of movie trailers.</p>
<p>[2]  Build dictionaries (i.e., regression models) that translate between the  shapes, edges and motion in the movies and measured brain activity. A  separate dictionary is constructed for each of several thousand points  at which brain activity was measured.</p>
<p>(For experts: The real advance  of this study was the construction of a movie-to-brain activity encoding  model that accurately predicts brain activity evoked by arbitrary novel  movies.)</p>
<p>[3] Record brain activity to a new set of movie trailers  that will be used to test the quality of the dictionaries and  reconstructions.</p>
<p>[4] Build a random library of ~18,000,000 seconds  (5000 hours) of video downloaded at random from YouTube. (Note these  videos have no overlap with the movies that subjects saw in the magnet).  Put each of these clips through the dictionaries to generate  predictions of brain activity. Select the 100 clips whose predicted  activity is most similar to the observed brain activity. Average these  clips together. This is the reconstruction.</p>
]]></description><link>https://www.xtremehardware.com/forum//post/327511</link><guid isPermaLink="true">https://www.xtremehardware.com/forum//post/327511</guid><dc:creator><![CDATA[One1ros]]></dc:creator><pubDate>Sat, 19 Nov 2011 16:32:20 GMT</pubDate></item><item><title><![CDATA[Reply to Il computer che ci legge nel pensiero on Sat, 19 Nov 2011 13:01:24 GMT]]></title><description><![CDATA[<blockquote>
<p><strong>Nikolaj ha scritto:</strong></p>
<div>uno degli ambiti che probabilmente usufruiranno molto degli algoritmi per il calcolo parallelo. La neurologia verrà rivoluzionata grazie all'informatica, ed è sorprendente quanto si possa fare con i pochi mezzi che abbiamo</div>
</blockquote>
<p>si quoto</p>
]]></description><link>https://www.xtremehardware.com/forum//post/327510</link><guid isPermaLink="true">https://www.xtremehardware.com/forum//post/327510</guid><dc:creator><![CDATA[tom1]]></dc:creator><pubDate>Sat, 19 Nov 2011 13:01:24 GMT</pubDate></item><item><title><![CDATA[Reply to Il computer che ci legge nel pensiero on Sat, 19 Nov 2011 10:33:46 GMT]]></title><description><![CDATA[<p>uno degli ambiti che probabilmente usufruiranno molto degli algoritmi per il calcolo parallelo. La neurologia verrà rivoluzionata grazie all'informatica, ed è sorprendente quanto si possa fare con i pochi mezzi che abbiamo</p>]]></description><link>https://www.xtremehardware.com/forum//post/327509</link><guid isPermaLink="true">https://www.xtremehardware.com/forum//post/327509</guid><dc:creator><![CDATA[Nikolaj]]></dc:creator><pubDate>Sat, 19 Nov 2011 10:33:46 GMT</pubDate></item><item><title><![CDATA[Reply to Il computer che ci legge nel pensiero on Mon, 31 Oct 2011 16:39:11 GMT]]></title><description><![CDATA[<p>Mostrare i sogni su uno schermo,Fantascienza?Non proprio.All'università della California a Berkeley i neurologi Shinki Nishimoto e Jack Gallant hanno chiesto a volontari sottoposti a risononanza magnetica di vedere dei trailer di film.Un software intanto analizzava sia le immagini che i volontari sravano guardando sia il livello di attività delle varie parti del loro cervello.</p>
<img src="http://www.xtremeshack.com/immagine/i117332_brain-computing-small-c.jpg" alt="i117332_brain-computing-small-c.jpg" />
<p>L'attività cerebrale è registrata dalla risonocanza magnetica come una sorta di mappa tridimensionale del cervello, in cui ogni cubetto di pochi millimetri di lato,un cosidetto voxel,è associato al corrispettivo livello di attivazione dei neuroni al suo inyerno,indicato da quanto sangue li sta alimnetando.I ricercartori hanno costruito una serir di mappe di attività cerebrale,corrispondenti ognuna a una scena diversa.La presenza di una figura umana,per esempio attivava una certa mappa di voxel,diversa da quella di un treno in corsa.</p>
<p>Accumulati molti dati,Nishimoto e Gallant hanno poi tentato di far ricostruire a un software cosa stesse vedendo un volontario sulla base dell'attivazione dei voxel nella sua risononanza magnetica. Il software ha fuso l'insieme di scene casuali tratte da Youtube,fino a ricrearne una che,secondo i suoi calcoli, avrebbe prodotto la stessa attività cerebrale registrata nella persona in quel momento.</p>
<p>L'immagine è confusa,ma in effetti simile a quella vista.La speranza è che in futuro si possano visualizzare su uno schermo i pensieri di persone che non possono comunicare,perchè paralizzate o in stato vegetativo.</p>
<p><strong> </strong></p>
<p><strong> </strong></p>
<p><strong>Fonte:La Repubblica</strong></p>
]]></description><link>https://www.xtremehardware.com/forum//post/327508</link><guid isPermaLink="true">https://www.xtremehardware.com/forum//post/327508</guid><dc:creator><![CDATA[tom1]]></dc:creator><pubDate>Mon, 31 Oct 2011 16:39:11 GMT</pubDate></item></channel></rss>