Cientistas usam captador de imagens no cérebro para revelar filmes na nossa mente

 

veja também:

Facebook desenvolve sensores para ser possível digitar com a mente

Nova tecnologia do Facebook  poderá decretar a morte de nossos celulares

 

O professor de psicologia e neurociência Jack Gallant exibe  vídeos e imagens do cérebro usadas em sua pesquisa.

 

BERKELEY — Imaginem acessar a mente de um paciente em coma, ou assistir ao próprio sonho no YouTube! Com uma mistura de imagens apanhadas no cérebro e editadas através de uma simulação de computador, os cientistas da Universidade da Califórnia, em Berkeley, estão tornando realidade esses cenários futuristas.


Usando ressonância magnética funcional (fMRI) e modelos computacionais, os pesquisadores da UC Berkeley conseguiram decodificar e reconstruir experiências visuais dinâmicos das pessoas - neste caso, assistiam a trailers de filmes de Hollywood.

Até agora, a tecnologia só pode reconstruir clipes de filme que as pessoas já viram. No entanto, a descoberta abre o caminho para a reprodução de filmes dentro de nossas próprias cabeças e que ninguém mais vê, como sonhos e memórias, de acordo com pesquisadores.

 

A reconstrução aproximada (à direita) de um clipe de filme (à esquerda) é conseguido através de imagens do cérebro e simulação de computador
"Este é um grande salto em direção à reconstrução de imagem interna", disse o professor Jack Gallant, neurocientista UC Berkeley e coautor do estudo publicado on-line hoje (22 de setembro de 2011) na revista Current Biology. "Estamos abrindo uma janela para o cinema em nossas mentes".

Eventualmente, as aplicações práticas da tecnologia poderia incluir uma melhor compreensão do que se passa nas mentes das pessoas que não podem se comunicar verbalmente, como vítimas de derrames, pacientes em coma e pessoas com doenças neurodegenerativas.

Ele também pode lançar as bases para a interface cérebro-máquina para que pessoas com paralisia cerebral ou paralisia, por exemplo, possam orientar computadores com suas mentes.

No entanto, os pesquisadores apontam que a tecnologia está a décadas de permitir aos usuários ler os pensamentos e intenções dos outros, como retratado em clássicos da ficção científica como "Brainstorm", em que os cientistas registraram sensações de uma pessoa para que outros pudessem experimentá-las.

Anteriormente, Gallant e seus colegas pesquisadores gravaram a atividade cerebral no córtex visual enquanto um pesquisado via fotografias em preto-e-branco. Eles então construíram um modelo computacional que lhes permitiu prever com precisão esmagadora que retrato o pesquisado estava olhando.

Em seu mais recente experimento, os pesquisadores dizem ter resolvido um problema muito mais difícil ao conseguirem descodificar sinais cerebrais reais gerados por imagens em movimento.

"Nossa experiência visual natural é como assistir a um filme", ​​disse Shinji Nishimoto, principal autor do estudo e pesquisador de pós-doutorado no laboratório de Gallant. "Para que esta tecnologia possa ter ampla aplicabilidade, devemos entender como o cérebro processa essas experiências visuais dinâmicas."

 

Nishimoto e dois outros membros da equipe de investigação serviram como cobaias para a experiência, pois o procedimento exige voluntários que ainda permaneçam dentro do scanner de ressonância magnética por horas de uma vez.

 

Eles assistiram a dois conjuntos separados de trailers de filmes de Hollywood, enquanto o fMRI era utilizado para medir o fluxo de sangue através do córtex visual, a parte do cérebro que processa a informação visual. No computador, o cérebro foi dividido em pequenos cubos tridimensionais conhecidos como pixels volumétricos, ou "voxels."

 

"Construímos um modelo para cada voxel que descreve como a informação da forma e do movimento no filme é mapeado durante a atividade do cérebro", disse Nishimoto.

 

A atividade cerebral gravada enquanto os pesquisados viam o primeiro conjunto de clips foi jogada em um programa de computador que aprendeu, segundo a segundo, a associar padrões visuais no filme com a atividade cerebral correspondente.

 

A atividade cerebral evocada pelo segundo conjunto de clipes foi usada para testar o algoritmo de reconstrução do filme. Isto foi feito através da jogar 18 milhões de segundo de vídeos aleatórios do YouTube no programa de computador, de modo a poder prever a atividade cerebral que cada clipe seria mais provável evocar em cada sujeito.

 

Finalmente, os 100 clipes que o programa de computador decidiu que eram mais semelhantes ao clipe que o pesquisado provavelmente tinha visto foram fundidos para produzir uma reconstrução embaçada ainda contínua do filme original.

 

Reconstruir filmes usando varreduras do cérebro tem sido um desafio porque os sinais de fluxo sanguíneo medidos usando fMRI muda muito mais lentamente do que os sinais neurais que codificam informações dinâmicas em filmes, disseram os pesquisadores. Por esta razão, a maioria das tentativas anteriores para descodificar a atividade cerebral se centrou em imagens estáticas.

 

"Abordamos este problema através do desenvolvimento de um modelo de dois estágios que descreve separadamente os sinais da população e do fluxo sanguíneo neurais subjacentes", disse Nishimoto.

 

Em última análise, o que Nishimoto disse é os cientistas precisam entender como o cérebro processa eventos visuais dinâmicos que experimentamos na vida cotidiana.

 

"Precisamos saber como o cérebro funciona em condições naturais", disse ele. "Para isso, precisamos primeiro entender como o cérebro funciona, enquanto estamos assistindo a filmes."

 

Outros coautores do estudo são Thomas Naselaris com Helen Wills do Instituto de Neurociência Universidade de Berkeley; An T. Vu com o Grupo de Pós-Graduação conjunta de Bioengenharia da UC Berkeley; Yuval Benjamini e o professor Yu Bin do Departamento de Estatística com a UC Berkeley.