Em formação

Os neurônios que * não * disparam juntos perdem o fio?

Os neurônios que * não * disparam juntos perdem o fio?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Todos nós conhecemos a teoria Hebbian clássica, freqüentemente formulada como "neurônios que disparam juntos conectam-se". Estou curioso para saber como outras conexões são podadas quando dois neurônios começam a disparar juntos.

Se dois neurônios começarem a fazer uma conexão forte e disparar juntos com frequência, eles podarão as conexões com outros neurônios mais rápido do que se estivessem apenas "adormecidos", tornando-se cada vez mais seletivos em relação a esse canal. Ou o resultado é simplesmente uma estrutura mais conectada e a poda das conexões continua ocorrendo no ritmo usual?


Desconexão "específica" via tempo

Uma compreensão mais moderna do aforismo Hebbian clássico é a plasticidade dependente do tempo de pico. Observa-se que as conexões são fortalecidas ou enfraquecido de acordo com o tempo relativo de pico e entradas. Especificamente, as sinapses que estão ativas em breve antes uma célula dispara um potencial de ação que tende a ser potencializado ("fio"); sinapses que estão ativas em breve depois de uma célula dispara um potencial de ação que tende a ser deprimido.

Portanto, não são apenas as células que disparam juntas se conectam, são as células que disparam juntas de uma certa maneira se conectam, e as células que disparam juntas de outra forma "desenrolam". Acho que é importante reconhecer que uma redução na força sináptica não significa necessariamente a perda imediata de uma sinapse. Sinapses fracas são comuns e apenas as mais fracas são totalmente podadas.

Desconexão inespecífica via homeostase

Outro princípio geral, que pode estar mais próximo do que você está pensando, é a plasticidade homeostática, incluindo a escala sináptica. Assim como outros processos fisiológicos estão sob controle homeostático, os neurônios tendem a ajustar suas respostas para manter uma homeostase geral da atividade (taxa de disparo). Este processo ocorre em muitas escalas de tempo e sistemas diferentes, mas afirmado de maneira geral, altos níveis de atividade nos neurônios tendem a ativar processos celulares que reduzirão a atividade futura, e baixos níveis de atividade tendem a ativar processos que aumentarão a atividade futura.

O pensamento atual é que a escala sináptica ocorre geralmente ao invés de especificamente. Ao aumentar a força de sinapses específicas por meio da plasticidade Hebbian e ao mesmo tempo diminuir ligeiramente a força de todas as sinapses, o equilíbrio geral de entrada permanece quase o mesmo (homeostase).

É claro que as coisas ficam um pouco mais complicadas quando você examina todo o sistema nervoso e todo o curso do desenvolvimento até a idade adulta, mas acho que isso está fora do escopo desta resposta.


Não vá discutindo com neurônios

Enquanto eu continuava lendo Matt Gallagher & # 8216s Sangue Jovem, Também encontrei um artigo de tendência de O Atlantico, & # 8220Power Causes Brain Damage, & # 8221 por Jeremy Useem. Bem escrito, a premissa de fundo do artigo & # 8217s não apresenta nenhuma surpresa: quando as pessoas alcançam posições de poder, muitas vezes elas exibem uma capacidade diminuída de empatia com o sofrimento dos outros.

Qualquer pessoa que tenha feito um curso de Introdução à Psicologia desde, digamos, 1965 deve ser capaz de dizer a você - exatamente como aquelas pessoas que encontraram Stanley Milgram e sua máquina de choque de Yale no início dos anos sessenta. É verdade que o objetivo desse experimento específico era mais sobre a pressão social, mas o poder certamente torna a pressão social muito mais, digamos, sociável.

O Sr. Usheem, entretanto, relata que a premissa de fundo agora acende uma tela em tecnicolor (literalmente) vivo.

Ele escreve sobre o trabalho atual na neurociência da empatia, especialmente no que diz respeito Neurônios espelho, estruturas cerebrais que parecem ser acionadas quando alguém está assistindo alguém fazendo algo ou mesmo experimentando algo. Eles são como nossa espécie & # 8217 embutidos & # 8220 Lá, mas pela graça de Deus & # 8221 mecanismo.

De acordo com os pesquisadores citados por Usheem, quando as pessoas se sentem poderosas, seus neurônios-espelho não se sentem tão inclinados a disparar. Ou assim parece. O esquecimento, pelo menos nesses casos, parece ter uma neuroquímica.

Psicologia neurocientífica, neurociência psicológica: faça a sua escolha. Se você quiser que uma boa briga intelectual comece, vincule essas duas palavras, publique-as e, em seguida, verifique a seção de comentários. Acredite em mim: alguém acabará por rosnar & # 8220 reducionismo biológico & # 8221 após o que outro irá interferir com & # 8220 pressuposições mentalistas & # 8221 ou algo assim, e você & # 8217 estará pronto para as corridas. Como um encanto.

A academia é tão previsível. Pelo menos algo neste mundo é.

No entanto, vou confessar: sou um mercenário linguístico quando se trata de neurociência. Vivemos em tal sociedade cartesiana, nenhuma hora de minha vida profissional passa sem que eu conheça pessoas que presumem que o que acontece em suas mentes tem pouco a ver com o que acontece em seus cérebros, muito menos em seus corpos. As pessoas podem fingir que é & # 8220mind-brain & # 8221, mas isso e US $ 3,50 dá para você um café com leite, na maioria dos dias.

Portanto, você precisa ser bem dissimulado. É assim que funciona a missão mercenária:

Se você pensa em algo, sente algo ou deseja fazer algo - ao mesmo tempo em que está conectado a uma máquina moderna - seu cérebro se acenderá (ou não). Sem cérebro iluminado, sem pensar-sentir-vontade.

Correlação, não causalidade, você diz? Possivelmente. Mas quando alguém é um mercenário linguístico, não precisa deixar que uma ninharia como essa pare o show.

Por uma vantagem para nossa lealdade social a Descartes, pelo menos no início do século XXI? A maioria das pessoas no Ocidente fica tão impressionada com os sinos e apitos das máquinas, quando você menciona a palavra corpo, eles param de implicar com você sobre a palavra mente. A biologia supera a psicologia, todas as vezes.

Para veterinários de combate, por exemplo, tudo o que você precisa fazer é dizer algo como:

1. O corpo registra o que acontece conosco, quer queiramos ou não.

2. O corpo não esquece. Mesmo quando você ordena que o faça.

3. Também não recebe ordens do Comando Central sobre como irá ou não responder em qualquer situação particular. O treinamento leva você longe. Mas só até agora.

4. Seu corpo diz a sua mente o que acontecerá com muito mais facilidade do que sua mente diz a seu corpo.

5. Mas então, meu amigo veterinário de combate: você já sabe disso. Você vive isso todos os dias, até sua última célula. Às vezes, todas as noites.

6. Você não se lembra apenas da Guerra. Você revive isso.

Ponto não apenas exposto, mas sentido. Missão cumprida.

Levar o corpo a sério é levar a sério que a linguagem só pode fazer muito para expressar o corpo e a profundidade da experiência. O poder é um fenômeno social, verdade, como as palavras, pois acontece entre pelo menos duas pessoas, sejam palavras ditas ou não.

Mas perceber como o poder é sentido no corpo do poderoso - enquanto ignora a sensação desse poder no corpo de outro, menos poderoso? Ah, isso está dentro de uma única mente, dentro do compromisso neuronal entre um único cérebro e um único corpo, uma série de disparos neuronais que convence o cérebro a não desperdiçar muitos neuroquímicos em células que, em última análise, nunca chegarão à mente, ou seja, você, o que você deseja.

Portanto, esqueça a empatia, soldado. Isso é guerra. É o que é. Luzes do espelho apagadas. Avante.

Os pesquisadores dizem a Usheem, na verdade, que se essas séries de neurônios da inconsciência dispararem juntas com frequência suficiente, os incômodos neurônios-espelho podem não incomodá-lo novamente por um bom tempo. Talvez nunca.

Mas limitação de milhas, que o soldado tenha cuidado: espelhos no cérebro podem começar a captar os reflexos de outras pessoas nos momentos mais inoportunos. Talvez até em um instante de batalha. Talvez nos dias, mesmo nos anos atrás nos Estados Unidos.

I & # 8217m na metade do caminho Sangue Jovem agora. O tenente Jackson Porter já está lutando com a biologia do poder conforme ele diminui e flui por seu córtex, seu mesencéfalo, seu tronco cerebral, seus pulmões, seu coração, suas entranhas. Seja como for para ele, a guerra mudou não apenas sua perspectiva, mas também sua fisiologia.

Porém, como o tenente Porter narra na primeira pessoa, podemos também presumir que ele aprendeu outra verdade sobre os neurônios: uma vez que tenham disparado juntos, eles podem mais uma vez se reunir para bons ou maus momentos & # 8217. Isso é chamado de memória. Muitas vezes não é um amigo. Apenas uns poucos podem se dar ao luxo de dias, meses, até anos desfrutando da biologia inconsciente do poder após a guerra.

Para muitos, como o bom tenente, esses tempos de esquecimento devem eventualmente ser confrontados em tempos posteriores menos alheios, pois eles enfrentam as memórias de seus corpos que podem ter estado totalmente presentes em alguns momentos particularmente memoráveis, mas as realidades de suas mentes que podem tem sido muito menos nesses mesmos momentos. Eles podem ter sabido exatamente o que estavam fazendo, o que estavam dizendo naqueles momentos, em outras palavras, embora ao mesmo tempo não estivessem totalmente elas.

Ao se depararem com lembranças de mentes que eram produtos de cérebros que, pelo menos em alguns momentos, não disparavam em todos os cilindros.

E então o médico mercenário linguístico dispara mais uma vez:

1. Foram vocês dois e não foi você lá atrás, Tenente Porter

2. É assim que o corpo funciona.

3. Mas, felizmente, biologia não é destino. É apenas biologia.

4. As memórias podem parecer a realidade presente, mas também são apenas biologia.

5. A realidade presente, felizmente, é muito mais do que biologia. E, felizmente, pode ser um ponto a partir do qual uma nova biologia pode ser formada.

Confie em mim: não seria & # 8217não seria & # 8220 missão cumprida & # 8221 para o nosso bom tenente. Mas seria o começo.


Relação Dinâmica Relacionada a Diversas Formas Mitocondriais

As mitocôndrias existem em redes muito ativas, não como indivíduos isolados. Eles estão continuamente se movendo, se dividindo e se fundindo. Eles existem em muitas formas diferentes, incluindo pequenas bolas e longas hastes ramificadas que compartilham muitos nucleoides - o equivalente a um grande citoplasma com muitos núcleos celulares. As formas, tamanho e número mudam constantemente com base nas forças polares dinâmicas.

O primeiro pólo dessa relação dinâmica é a divisão, ou fissão, onde uma mitocôndria se separa em múltiplas organelas. O pólo oposto é a fusão em versões maiores e mais longas. A hiperfusão é um estado muito temporário de fusão extrema - uma reação ao estresse quando mitocôndrias extremamente grandes são formadas a partir de muitas mitocôndrias pequenas.

O tamanho da mitocôndria, a posição no espaço e a mobilidade determinam a próxima mudança. A fissão aumenta se as mitocôndrias forem muito longas. A fusão aumenta se as mitocôndrias forem muito móveis. Eles ocorrem alternadamente, quando a mitocôndria se torna mais longa ou está viajando extensivamente. A fusão e a divisão são forças opostas que operam o tempo todo.

Para as mitocôndrias, essa dinâmica substitui a divisão celular altamente regulada da célula maior por moléculas de estrutura complexas e fuso. A fusão e a fissão na mitocôndria são influenciadas por lipídios, carga negativa e curvatura da bicamada lipídica. Quando mais proteínas são recrutadas, a fusão é promovida. Quando hidrolisado, a fissão é promovida.

A fusão e a divisão são reguladas por motores dineínicos, que não apenas transportam mitocôndrias ao longo dos microtúbulos, mas remodelam constantemente as membranas. Existem muitas proteínas diferentes envolvidas nas estruturas complexas das membranas interna e externa. Divisão e fusão são impulsionadas por Proteínas Relacionadas à Dineína, conhecido como DRPs. Essas máquinas remodelam as membranas de muitas maneiras diferentes. Em um processo, os DRPs formam uma hélice envolvendo as mitocôndrias no local onde ocorrerá a divisão. Esses anéis comprimem as mitocôndrias formando duas metades. Fusão, o processo oposto, usa outros DPRs para conectar as membranas externa e interna.

A fissão produz pequenas mitocôndrias discretas e um número maior. Estes são mais capazes de produzir oxigênio reativo e estimular o processo de suicídio das mitocôndrias, denominado mitofagia. Sem divisão, as mitocôndrias se alongam e se tornam redes muito mais interconectadas, onde o DNA pode ser perdido. A divisão vai contra a montagem da rede e distribui as mitocôndrias para as demandas de energia das células, com transporte por motores celulares e mecanismos de transporte de microtúbulos.

O Fusion interconecta a rede e aumenta a comunicação com o ER. Ele dilui as mutações ao difundir o conteúdo da matriz compartilhada. A fusão das mitocôndrias é crítica para a comunicação entre as organelas e a montagem da rede. Sem fusão, as redes conectadas se dissolvem em muitas mitocôndrias individuais e perdem DNA.


Neurônios-espelho & # 8217 grande potencial

Por quase uma década, esses neurônios, chamados de “neurônios-espelho”, permaneceram relativamente desconhecidos do público. No entanto, sua reputação começou a mudar em 2000, quando o famoso neurocientista e divulgador da ciência V.S. Ramachandran escreveu um artigo edge.org especulando que “neurônios-espelho fariam pela psicologia o que o DNA fez pela biologia: eles fornecerão uma estrutura unificadora e ajudarão a explicar uma série de habilidades mentais que até agora permaneceram misteriosas e inacessíveis aos experimentos”.

Em uma série de propostas elegantes e convincentes, Ramachandran teorizou que os neurônios-espelho podem ajudar a explicar uma ampla variedade de habilidades sociais humanas. Por exemplo, como, biologicamente, as pessoas imitam as ações dos outros, uma habilidade que em parte permite a disseminação da cultura? Ramachandran propôs que os neurônios-espelho traduzam uma ação observada em uma série de comandos para os músculos executarem. Como as pessoas entendem as intenções por trás das ações dos outros? Os neurônios-espelho podem executar uma espécie de simulação de realidade virtual de como seria para uma pessoa realizar essa ação. Por que os indivíduos autistas são prejudicados quando se trata de compreender os pensamentos dos outros? Talvez eles tenham neurônios-espelho deficientes (uma ideia que veio a ser chamada de hipótese do “espelho quebrado”). Em um ano, o uso da frase "neurônios-espelho" mais que dobrou e, na década seguinte, os neurônios-espelho capturaram a imaginação do público, sendo apontados como capazes de oferecer uma visão de tudo, desde empatia com clientes de terapia até diplomacia internacional, como as crianças aprender música e como as pessoas apreciam arte. Nada mal para uma descoberta que foi inicialmente rejeitada pela principal revista científica, Natureza, por “falta de interesse público”.

À medida que o interesse por neurônios-espelho explodiu entre o público, os cientistas permaneceram divididos quanto ao seu significado. Alguns cientistas, como Rizzolatti e Ramachandran, estavam otimistas de que os neurônios-espelho seriam cruciais para as habilidades sociais de muitos humanos, enquanto outros pensavam que sua importância era exagerada. Por algum tempo, os céticos tinham uma flecha particularmente eficaz em sua aljava: apesar das alegações de que neurônios-espelho podem estar por trás de muito do que torna os humanos únicos (como linguagem e cultura), até 2008, eles nunca haviam sido identificados de forma decisiva em humanos. Mesmo em 2016, apenas um estudo, usando eletrodos implantados no cérebro de pacientes com epilepsia, identificou com sucesso neurônios humanos com propriedades semelhantes às encontradas nos macacos.


Testando um novo modelo

Felizmente, a unidade de De Schutter tinha acabado de desenvolver um modelo atualizado, uma tarefa imensa realizada principalmente pelo agora ex-pesquisador de pós-doutorado, Dr. Yunliang Zang.

Depois de concluído, a equipe descobriu que, pela primeira vez, o novo modelo foi capaz de replicar o comportamento exclusivo dependente da taxa de disparo.

No modelo, eles viram que no intervalo entre os picos, a voltagem da membrana do neurônio Purkinje em neurônios de disparo lento era muito mais baixa do que os de disparo rápido.

& quotPara desencadear um novo pico, a voltagem da membrana tem que ser alta o suficiente para atingir um limite. Quando os neurônios disparam em uma taxa alta, sua voltagem de membrana mais alta torna mais fácil para perturbar as entradas, que aumentam ligeiramente a voltagem da membrana, para cruzar esse limite e causar um novo pico ”, explicou De Schutter.

Os pesquisadores descobriram que essas diferenças na voltagem da membrana entre os neurônios de disparo rápido e lento se deviam aos tipos específicos de canais de íon de potássio nos neurônios de Purkinje.

& quotOs modelos anteriores foram desenvolvidos apenas com os tipos genéricos de canais de potássio que conhecíamos. Mas o novo modelo é muito mais detalhado e complexo, incluindo dados sobre muitos tipos específicos de células de Purkinje de canais de potássio. É por isso que esse comportamento único pode finalmente ser replicado e compreendido, ”disse De Schutter.


As principais diferenças

  1. Tamanho: nosso cérebro contém cerca de 86 bilhões de neurônios e mais de 100 trilhões (ou de acordo com algumas estimativas, 1000 trilhões) de sinapses (conexões). O número de "neurônios" em redes artificiais é muito menor do que isso (geralmente em torno de 10–1000), mas comparar seus números dessa forma é enganoso. Os perceptrons apenas pegam entradas em seus “dendritos” e geram saídas em seus “ramos de axônio”. Uma rede perceptron de camada única consiste em vários perceptrons que não estão interconectados: todos eles apenas executam essa mesma tarefa ao mesmo tempo. Redes Neurais Profundas geralmente consistem em neurônios de entrada (tantos quanto o número de recursos nos dados), neurônios de saída (tantos quanto o número de classes, se forem construídos para resolver um problema de classificação) e neurônios nas camadas ocultas, em entre. Todas as camadas estão geralmente (mas não necessariamente) totalmente conectadas à próxima camada, o que significa que os neurônios artificiais geralmente têm tantas conexões quanto há neurônios artificiais nas camadas precedentes e seguintes combinadas. As redes neurais convolucionais também usam diferentes técnicas para extrair recursos dos dados que são mais sofisticados do que alguns neurônios interconectados podem fazer sozinhos. A extração manual de recursos (alterando dados de forma que possam ser alimentados por algoritmos de aprendizado de máquina) requer potência do cérebro humano, que também não é levada em consideração ao somar o número de “neurônios” necessários para tarefas de Aprendizado Profundo. A limitação de tamanho não é apenas computacional: simplesmente aumentar o número de camadas e neurônios artificiais nem sempre produz melhores resultados em tarefas de aprendizado de máquina.
  2. Topologia: todas as camadas artificiais computam uma a uma, em vez de fazer parte de uma rede que possui nós computando de forma assíncrona. As redes feedforward calculam o estado de uma camada de neurônios artificiais e seus pesos e, em seguida, usam os resultados para calcular a camada seguinte da mesma maneira. Durante a retropropagação, o algoritmo calcula alguma mudança nos pesos de maneira oposta, para reduzir a diferença dos resultados computacionais do feedforward na camada de saída dos valores esperados da camada de saída. As camadas não estão conectadas a camadas não vizinhas, mas é possível imitar um pouco os loops com redes recorrentes e LSTM. Em redes biológicas, os neurônios podem disparar de forma assíncrona em paralelo, têm natureza de mundo pequeno com uma pequena porção de neurônios altamente conectados (hubs) e uma grande quantidade de neurônios menos conectados (a distribuição de graus segue pelo menos parcialmente a lei de potência). Como as camadas de neurônios artificiais geralmente estão totalmente conectadas, essa natureza de mundo pequeno dos neurônios biológicos só pode ser simulada pela introdução de pesos que são 0 para imitar a falta de conexões entre dois neurônios.
  3. Velocidade: certos neurônios biológicos podem disparar cerca de 200 vezes por segundo, em média. Os sinais viajam em velocidades diferentes dependendo do tipo de impulso nervoso, variando de 0,61 m / s até 119 m / s. As velocidades de deslocamento do sinal também variam de pessoa para pessoa, dependendo de seu sexo, idade, altura, temperatura, condição médica, falta de sono, etc. A frequência do potencial de ação transporta informações para redes de neurônios biológicos: a informação é transportada pela frequência de disparo ou modo de disparo (tônico ou burst-disparo) do neurônio de saída e pela amplitude do sinal de entrada no neurônio de entrada em sistemas biológicos. Em vez disso, as informações nos neurônios artificiais são transportadas pelos valores de número de ponto flutuante contínuos dos pesos sinápticos. A rapidez com que os algoritmos de feedforward ou backpropagation são calculados não contém nenhuma informação, a não ser tornar a execução e o treinamento do modelo mais rápidos. Não há períodos refratários para redes neurais artificiais (períodos em que é impossível enviar outro potencial de ação, devido aos canais de sódio sendo bloqueados) e neurônios artificiais não experimentam "fadiga": são funções que podem ser calculadas tantas vezes e tão rápido quanto a arquitetura do computador permitiria. Uma vez que os modelos de rede neural artificial podem ser entendidos como apenas um monte de operações de matriz e derivadas de descoberta, a execução de tais cálculos pode ser altamente otimizada para processadores de vetor (fazendo exatamente os mesmos cálculos em grandes quantidades de pontos de dados repetidamente) e acelerada por magnitudes usando GPUs ou hardware dedicado (como em chips AI em SmartPhones recentes).
  4. Tolerância ao erro: As redes de neurônios biológicos, devido à sua topologia, também são tolerantes a falhas. As informações são armazenadas de forma redundante para que pequenas falhas não resultem em perda de memória. Eles não têm uma parte "central". O cérebro também pode se recuperar e curar até certo ponto. Redes neurais artificiais não são modeladas para tolerância a falhas ou autorregeneração (de forma semelhante à fadiga, essas ideias não são aplicáveis ​​a operações de matriz), embora a recuperação seja possível salvando o estado atual (valores de peso) do modelo e continuando o treinamento a partir desse estado de salvamento. Os dropouts podem ligar e desligar neurônios aleatórios em uma camada durante o treinamento, imitando caminhos indisponíveis para sinais e forçando alguma redundância (dropouts são realmente usados ​​para reduzir a chance de overfitting). Modelos treinados podem ser exportados e usados ​​em diferentes dispositivos que suportam a estrutura, o que significa que o mesmo modelo de rede neural artificial produzirá as mesmas saídas para os mesmos dados de entrada em cada dispositivo em que é executado. Treinar redes neurais artificiais por longos períodos de tempo não afetará a eficiência dos neurônios artificiais. Contudo, o hardware usado para o treinamento pode se desgastar muito rápido se usado regularmente e precisará ser substituído. Outra diferença é que todos os processos (estados e valores) podem ser monitorados de perto dentro de uma rede neural artificial.
  5. Consumo de energia: o cérebro consome cerca de 20% de toda a energia do corpo humano - apesar do grande corte, um cérebro adulto opera com cerca de 20 watts (apenas o suficiente para acender uma lâmpada vagamente) sendo extremamente eficiente. Levando em consideração como os humanos ainda podem operar por um tempo, quando recebem apenas um pouco de suco de limão rico em vitamina C e sebo bovino, isso é bastante notável. Para referência: uma única GPU Nvidia GeForce Titan X funciona com 250 watts sozinha e requer uma fonte de alimentação em vez de sebo bovino. Nossas máquinas são muito menos eficientes do que os sistemas biológicos. Os computadores também geram muito calor quando usados, com as GPUs do consumidor operando com segurança entre 50–80 graus Celsius em vez de 36,5–37,5 ° C.
  6. Sinais: um potencial de ação é desencadeado ou não - as sinapses biológicas carregam um sinal ou não. Perceptrons funcionam de forma semelhante, aceitando entradas binárias, aplicando pesos a elas e gerando saídas binárias dependendo se a soma dessas entradas ponderadas atingiu um certo limite (também chamado de função degrau). Neurônios artificiais aceitam valores contínuos como entradas e aplicam uma função não linear simples, facilmente diferenciável (uma função de ativação) na soma de suas entradas ponderadas para restringir a faixa de valores das saídas. As funções de ativação não são lineares, portanto, várias camadas, em teoria, podem se aproximar de qualquer função. Anteriormente, as funções tangente sigmóide e hiperbólica eram usadas como funções de ativação, mas essas redes sofriam com o problema do gradiente de desaparecimento, o que significa que quanto mais camadas em uma rede, menos as mudanças nas primeiras camadas afetarão a saída, devido a essas funções comprimindo suas entradas em uma faixa de saída muito pequena. Esses problemas foram superados com a introdução de diferentes funções de ativação, como ReLU. As saídas finais dessas redes geralmente também são comprimidas entre 0 - 1 (representando probabilidades para tarefas de classificação) em vez de sinais binários de saída. Como mencionado anteriormente, nem a frequência / velocidade dos sinais nem as taxas de disparo carregam qualquer informação para redes neurais artificiais (esta informação é transportada pelos pesos de entrada). O tempo dos sinais é síncrono, onde neurônios artificiais na mesma camada recebem seus sinais de entrada e, em seguida, enviam seus sinais de saída de uma só vez. Loops e deltas de tempo só podem ser parcialmente simulados com camadas recorrentes (RNN) (que sofrem muito com o problema do gradiente de desaparecimento acima mencionado) ou com camadas de memória de curto prazo longo (LSTM) que agem mais como máquinas de estado ou circuitos de bloqueio do que neurônios. Todas essas são diferenças consideráveis ​​entre neurônios biológicos e artificiais.
  7. Aprendendo: ainda não entendemos como os cérebros aprendem ou como conexões redundantes armazenam e recuperam informações. As fibras cerebrais crescem e se estendem para se conectar a outros neurônios, a neuroplasticidade permite que novas conexões sejam criadas ou áreas se movam e mudem de função, e as sinapses podem se fortalecer ou enfraquecer com base em sua importância. Neurônios que disparam juntos, se conectam (embora esta seja uma teoria muito simplificada e não deva ser tomada muito literalmente). Ao aprender, estamos construindo informações que já estão armazenadas no cérebro. Nosso conhecimento se aprofunda pela repetição e durante o sono, e as tarefas que antes exigiam um foco podem ser executadas automaticamente depois de dominadas. As redes neurais artificiais, por outro lado, têm um modelo predefinido, onde nenhum outro neurônio ou conexão pode ser adicionado ou removido. Apenas os pesos das conexões (e vieses que representam os limiares) podem mudar durante o treinamento. As redes começam com valores de peso aleatórios e lentamente tentarão chegar a um ponto em que mudanças adicionais nos pesos não melhorem mais o desempenho. Assim como existem muitas soluções para os mesmos problemas na vida real, não há garantia de que os pesos da rede serão o melhor arranjo possível de pesos para um problema - eles representarão apenas uma das aproximações infinitas para soluções infinitas. A aprendizagem pode ser entendida como o processo de encontrar pesos ótimos para minimizar as diferenças entre a saída esperada e gerada da rede: mudar os pesos de uma maneira aumentaria esse erro, mudá-los de outra forma o decreta. Imagine o topo de uma montanha com neblina, onde tudo o que poderíamos dizer é que dar um passo em uma determinada direção nos levaria morro abaixo. Repetindo esse processo, chegaríamos a um vale onde dar um passo adiante apenas nos levaria mais alto. Uma vez encontrado este vale, podemos dizer que atingimos um mínimo local. Observe que é possível que existam outros vales melhores que são ainda mais baixos do topo da montanha (mínimos globais) que perdemos, uma vez que não os pudemos ver. Fazer isso geralmente em mais de 3 dimensões é chamado de gradiente descendente. Para acelerar esse “processo de aprendizagem”, em vez de passar por todos os exemplos todas as vezes, amostras aleatórias (lotes) são retiradas do conjunto de dados e usadas para iterações de treinamento. Isso só dará uma aproximação de como ajustar os pesos para atingir um mínimo local (descobrir qual direção tomar a descida sem olhar cuidadosamente para todas as direções o tempo todo), mas ainda é uma boa aproximação. Também podemos dar passos maiores ao subir o topo e dar passos menores, pois estamos alcançando um vale onde até mesmo pequenos empurrões podem nos levar ao caminho errado. Andar assim em declive, indo mais rápido do que planejar cuidadosamente cada passo é chamado de descida gradiente estocástica. Portanto, a taxa de aprendizado das redes neurais artificiais pode mudar ao longo do tempo (diminui para garantir um melhor desempenho), mas não há períodos semelhantes às fases do sono humano em que as redes aprenderiam melhor. Também não há fadiga neural, embora o superaquecimento das GPUs durante o treinamento possa reduzir o desempenho. Uma vez treinada, os pesos de uma rede neural artificial podem ser exportados e usados ​​para resolver problemas semelhantes aos encontrados no conjunto de treinamento. O treinamento (retropropagação usando um método de otimização como descida gradiente estocástica, sobre muitas camadas e exemplos) é extremamente caro, mas usar uma rede treinada (simplesmente fazendo cálculo feedforward) é ridiculamente barato. Ao contrário do cérebro, as redes neurais artificiais não aprendem recordando informações - eles só aprendem durante o treinamento, mas sempre irão “relembrar” as mesmas respostas aprendidas posteriormente, sem cometer erros. A grande coisa sobre isso é que o “recall” pode ser feito em um hardware muito mais fraco quantas vezes quisermos. Também é possível usar modelos previamente treinados (para economizar tempo e recursos por não ter que começar a partir de um conjunto de pesos totalmente aleatório) e melhorá-los treinando com exemplos adicionais que têm os mesmos recursos de entrada. Isso é um pouco semelhante a como é mais fácil para o cérebro aprender certas coisas (como rostos), tendo áreas dedicadas para processar certos tipos de informação.

Portanto, os neurônios artificiais e biológicos diferem em mais maneiras do que os materiais de seu ambiente - os neurônios biológicos apenas forneceram uma inspiração para suas contrapartes artificiais, mas eles não são de forma alguma cópias diretas com potencial semelhante. Se alguém chama outro ser humano de inteligente ou inteligente, assumimos automaticamente que ele também é capaz de lidar com uma grande variedade de problemas e provavelmente também é educado, gentil e diligente. Chamar um software de inteligente significa apenas que ele é capaz de encontrar uma solução ótima para um conjunto de problemas.


Você não pode usar 100% do seu cérebro - e isso é uma coisa boa

  • Uma afirmação popular de que os humanos usam apenas 10% de seus cérebros está longe de ser precisa - mas isso não significa que usamos 100% deles também.
  • Estudos em animais descobriram que mais de 20% dos neurônios estudados não servem a nenhum propósito identificável.
  • Alguns pesquisadores estimam que mais de 60% do cérebro consiste em "matéria escura neural", ou neurônios que não têm um propósito aparente e parecem não responder a estímulos comuns.

A vida animal na Terra remonta a milhões de anos, mas a maioria das espécies usa apenas três a cinco por cento de sua capacidade cerebral.

—Professor Norman (Morgan Freeman) no filme de 2014 Lucy

O filme Lucy é famosa - ou talvez infame - por apresentar a ideia de que nós, humanos, usamos apenas uma pequena fração de nosso tecido cerebral. Por meio de uma variedade de invenções de ficção científica, a personagem principal homônima do filme, interpretada por Scarlett Johansson, é capaz de aumentar radicalmente o uso do seu cérebro a partir do que afirma ser um valor típico abaixo de 10 por cento, em última análise, até 100 por cento.

O “mito dos 10% do cérebro”, como é chamado, tem uma longa história. E Lucy O diretor Luc Besson proclama abertamente que seu filme é uma fantasia baseada em pouca ou nenhuma ciência.

O filme certamente defende que expandir a atividade além dos níveis naturais, sem falar em experimentar um cérebro 100 por cento, vem com sérias desvantagens, incluindo o que retrata como um comportamento cada vez mais implacável por parte do personagem de Johansson. Como veremos, existem boas razões neurocientíficas para nos ater a nossa cota natural de atividade - e possivelmente buscar menos.

Yet many serious writers have used the film as a foil in order to debunk the 10 percent myth. They explain that, no, in fact, we use almost all of the brain, and we do so all the time. An eminent neurologist from Johns Hopkins School of Medicine was quoted in Americano científico as saying:

“We use virtually every part of the brain…[Most of] the brain is active almost all the time.”

The reality is that this claim is also inaccurate: I’ll call it the 100 percent myth. In fact, the 10 percent figure is a useful reference point for understanding how your brain works and for conceptualizing the actual patterns of activity happening in your head.

Now, it is probably true that, over time, we use more than just 10 percent of the neurons in our heads. However, the total is probably well short of 100 percent. The “probablies” here have to do with the fact that it is very difficult to make high-resolution measurements of activity in lots of neurons in an awake animal. Even non-human animals like mice are difficult to record from, and in humans, precise recording is nearly impossible.

Until recently, only a handful, a few dozen, or, more rarely, a few hundred or thousand neurons, could be measured at once with precision. However, neuroscientists are making significant progress.

In 2020, a large team led by Saskia de Vries of the Allen Institute for Brain Science published a blockbuster paper that made precise estimates of large-scale neural activity patterns in the mouse brain. They measured activity across numerous areas of the cerebral cortex involved in vision and were able to record detailed activity in an astounding 60,000 neurons. As they recorded, the animals were able to run freely on a rotating disc. Animals were shown a variety of natural images and movies, giving a strong semblance of normal, active life for a mouse.

It’s worth giving a little more detail about the methods of this study because they help illuminate a misleading argument in support of the 100 percent myth.

You might think that, in a brain of hundreds of millions or billions of neurons, 60,000 is still not a huge sample. In the mouse, it constitutes less than 0.1 percent of the brain—and mice are obviously a lot smaller and less sophisticated than us.

Why not use brain imaging instead? This gives us the attractive color images of whole brains “lighting up”—and it can be done in humans.

The issue is that brain imaging techniques like fMRI lack the necessary precision. They summarize activity over large numbers of neurons, and over comparatively long stretches of time.

In a typical fMRI experiment, each data point describing “activity” corresponds to the neural responses in a cube around 1 millimeter on a side. Each of the thousands of cubes that compose the brain contains hundreds of thousands or millions of neurons. The firing of these neurons is blurred together within each cube, and often further blurred by combining cubes comprising an anatomical brain region such as the amygdala.

Spiking is also summed up over the course of a second or so. This may seem like a short period but neurons operate much faster: on the millisecond scale. This means that they could fire hundreds of times in an almost endless variety of patterns, and all of this detail is invisible to the brain scanner.

Yet imaging data are often taken as evidence for the 100 percent myth: “Look!” it is argued, “almost every little cube is active, and the whole brain is ‘lighting up!’” Here again, we have a flawed argument.

The reality is that the change in activity of a given voxel—when it “lights up”—is quite small: it corresponds to a change in imaging signal of just a few percent at most. “Lighting up” can be caused by a relative handful of neurons inside a given voxel being highly active. This situation could, at a given moment, leave many if not most neurons quiescent and therefore result in much less than 100 percent activity. Nor can you tell if there are some neurons that never fire.

At the much finer-grained resolution achieved by the de Vries team, who used advanced invasive imaging techniques that require surgically exposing brain tissue, we can see what’s really going on. They found that almost a quarter—23 percent—of neurons in the visual brain didn’t respond to any visual stimuli. Stimuli included a diverse assortment of natural scenes from around the world as well as natural movies, including clips from the 1958 Orson Welles classic Touch of Evil. They also tried a wide variety of artificial images of alternating blobs and stripes. It was all to no avail for the 23 percent—these neurons would spike every once in a while, but not in any systematic way. They didn’t care about motion, brightness, contrast, or seemingly anything else. If 23 percent of our own visual neurons don't have an identifiable purpose, can we really say we "use" them?

It’s possible these quiet neurons would have responded to some special picture or movie that they weren’t shown. And despite being nominally “visual” neurons, some might respond to other types of stimuli such as a strong mouse-relevant odor or a loud sound. But as best as we can tell, almost a quarter of the neurons in this critical brain system are doing little if anything we can discern.

This pattern is by no means limited to the visual brain. A smaller but still impressive study recorded neurons in a part of the cortex responsible for hearing in rats. It found that only about 10 percent of neurons responded to sound stimuli. Again, the other neurons might respond to some odd sound that wasn’t presented, or to light falling on the eyes, touch on the skin, or something else.

But the magnitude of unresponsive neurons suggests that some substantial fraction of neurons is mostly quiet. Neuroscientists have known about this problem for a long time but until recently, it was standard practice to not scrutinize or, in many cases, mention "unresponsive" neurons in recording studies.

Others have made very high estimates of the number of quiet or silent neurons. Neurobiologist Saak Ovsepian used previous reports to estimate that the fraction of what has come to be called “neural dark matter” could be as high as 60 to 90 percent. The high end of this estimate aligns nicely with the 10 percent notion explored in Lucy.

Why would the brain have so many useless neurons? Isn’t this wasteful? Evolutionary biologists have devised an explanation for the phenomenon of neural dark matter on Darwinian grounds. The idea is that, over the course of generations, neurons that never respond are no longer subject to selective forces that would otherwise penalize owners of excess neurons. Following this logic, dark neurons can’t be disposed of. Dark neurons might be called upon if the brain is damaged. They could also come in handy over the course of evolution as species enter new habitats or face new challenges.

It’s worth emphasizing that even a very high estimate of the amount of dark matter doesn’t suppose that quiet neurons are bunched together, representing large chunks of terra incognita in your head. Instead, they are interspersed with “bright” or loud neurons throughout the cerebral cortex and in other parts of the brain.

Regardless of how they are distributed, there is certainly more than a smidge of dark matter in our brains. I think that, given the metabolic cost of building and running a brain—especially one of our size—our brains couldn’t exist with more than half of their neurons never being active. After all, the de Vries study showed that 77 percent of the visual neurons they measured were doing algo that seems useful.

However, these neurons weren't responding all the time, or even nearly all the time. Their responses were instead sparse. In Part 2 of this post, I will consider the idea of sparseness and what it means for the question of how much of our brain we use. I'll also show how this question is illuminated by conceiving our brains as operating in similar ways as the internet.

Copyright © 2021 Daniel Graham. Unauthorized reproduction of any content is strictly forbidden. For reprint requests, email [email protected]

Facebook image: Dean Drobot/Shutterstock

LinkedIn image: leungchopan/Shutterstock

de Vries, S. E., Lecoq, J. A., Buice, M. A., Groblewski, P. A., Ocker, G. K., Oliver, M., . & Koch, C. (2020). A large-scale standardized physiological survey reveals functional organization of the mouse visual cortex. Nature Neuroscience, 23(1), 138-151.

Fried, I., Rutishauser, U., Cerf, M., & Kreiman, G. (Eds.). (2014). Single neuron studies of the human brain: probing cognition. MIT Press.

Hromádka, T., DeWeese, M. R., & Zador, A. M. (2008). Sparse representation of sounds in the unanesthetized auditory cortex. PLoS Biology, 6(1), e16.

Ovsepian, S. V. (2019). The dark matter of the brain. Brain Structure and Function, 224(3), 973-983.

Kavanau, J. L. (1990). Conservative behavioural evolution, the neural substrate. Animal Behaviour, 39(4), 758-767.


Hands on demo

…but first an overview of how these plots work.

Below you’ll find a few interactive plots to play around with various receptors.

These plots are my own concoction, so let me explain how they work:

The top left plot (vertices & edges) graphically represents the topology of a network of neurons. One vertex can represent multiple neuron. If you see a ring emanate from a vertex, the neuron(s) represented by that vertex fired.

The top right window lets you play around with some network parameters, i.e. properties of synapses or properties of neurons.

The bottom left plot shows the membrane potential of neuron

Learning & Memory

There are many types of learning. Here we will touch on Hebbian learning. Hebbian learning postulates that

“When an axon of cell A is near enough to excite B and repeatedly or persistently takes part in firing it, some growth process or metabolic change takes place in one or both cells such that A’s efficiency, as one of the cells firing B, is increased” – Donald Hebb

ou neurons that fire together wire together.

where $eta$ is a learning rate, $v$ is the the postsynaptic neural response and $u_i$ is the presynaptic neural response. If both pre- and post-synaptic neurons fire together they are strengthened, if neither fire together they are not strengthened. Now, while there are problems with this original formulation, e.g. synapses only get stronger, it captures the gist of a common type of synaptic modification.

Spike-timing dependent plasticity (STDP) is a form of Hebbian learning which resolves some of the problems encountered with earlier models, namely it allows synapses to strengthen and weaken and it inherently involves competition between synapses all while avoiding the assumption of global, intracellular mechanisms. The intuition behind this rule is as follows: if a presynaptic neuron fires before a postsynaptic neuron does, it helped cause it to fire if the presynaptic neuron fires after a postsynaptic neuron does, it did not cause it to fire synapses learn the causal relationship between neurons.

This model works as follows:

each time either the presynaptic or postsynaptic neuron fires, the synapse is updated according to some amount based on the difference in spike timing:

Taken from [1] When the presynaptic neuron fires, the synapse is weakened. When the postsynaptic neuron fires, the synapse is strengthened. Note that potentiation and depression are not necessarily symmetric.

STDP has several fascinating computational properties:

  • Spike correlations: spikes between pre- and post-synaptic neurons become correlated through reinforcement.
  • network latency: STDP can reduce network latency by reinforcing presynaptic neurons which consistently fire prior to the postsynaptic neuron.
  • regulation: STDP regulates network firing rates, achieving a homeostatic effect , despite being quite stable at the local level.

Here is a javascript implementation of STDP taken from [1] — I’ve added a moving scatter plot, so you can see how the network weights evolve over time.

If you wait long enough (unfortunately quite a while), the distribution should look something like this:

$.

The bottom right plot shows the synaptic conductance from neuron $1 ightarrow 0$

When an AMPA receptor is activated, it raises the postsynaptic membrane potential its effects are short, on the order of milliseconds.

Click on neuron to cause an EPSP.

When an NMDA receptor is activated, it raises the postsynaptic membrane potential its effects are long, on the order of hundreds of milliseconds. Unlike the other receptor types discussed in this post, NMDA receptors are voltage gated, meaning that even if NMDA is activated, ions do not necessarily flow. Rather, there must be other coincidental excitatory postsynaptic potentials from AMPA. In that way, NMDA receptors are coincidence detectors. The strong currents NMDA induces are believed to be an important mechanism in learning.

Click on neuron to cause EPSPs.


O modelo mostra que a velocidade de disparo dos neurônios afeta sua capacidade de sincronizar

Pesquisa conduzida pela Unidade de Neurociência Computacional do Instituto de Ciência e Tecnologia da Universidade de Pós-Graduação (OIST) de Okinawa mostrou pela primeira vez que um modelo de computador pode replicar e explicar uma propriedade única exibida por uma célula cerebral crucial. Suas descobertas, publicadas hoje em eLife, lançam luz sobre como grupos de neurônios podem se auto-organizar por meio da sincronização quando disparam rapidamente.

O modelo se concentra nos neurônios de Purkinje, que são encontrados no cerebelo. Essa densa região do cérebro posterior recebe informações do corpo e de outras áreas do cérebro para ajustar a precisão e o tempo do movimento, entre outras tarefas.

“Purkinje cells are an attractive target for computational modeling as there has always been a lot of experimental data to draw from,” said Professor Erik De Schutter, who leads the Computation Neuroscience Unit. “But a few years ago, experimental research into these neurons uncovered a strange behavior that couldn’t be replicated in any existing models.”

Esses estudos mostraram que a taxa de disparo de um neurônio de Purkinje afetava a forma como ele reagia aos sinais emitidos por outros neurônios vizinhos.

A taxa na qual um neurônio emite sinais elétricos é um dos meios mais cruciais de transmissão de informações a outros neurônios. Spikes, or action potentials, follow an “all or nothing” principle – either they occur, or they don’t – but the size of the electrical signal never changes, only the frequency. Quanto mais forte a entrada de um neurônio, mais rápido ele dispara.

But neurons don’t fire in an independent manner. “Neurons are connected and entangled with many other neurons that are also transmitting electrical signals. These spikes can perturb neighboring neurons through synaptic connections and alter their firing pattern,” explained Prof. De Schutter.

Interestingly, when a Purkinje cell fires slowly, spikes from connected cells have little effect on the neuron’s spiking. Mas, quando a taxa de disparo é alta, o impacto dos picos de entrada aumenta e faz a célula de Purkinje disparar mais cedo.

“The existing models could not replicate this behavior and therefore could not explain why this happened. Although the models were good at mimicking spikes, they lacked data about how the neurons acted in the intervals between spikes,” Prof. De Schutter said. “It was clear that a newer model including more data was needed.”

Fortunately, Prof. De Schutter’s unit had just finished developing an updated model, an immense task primarily undertaken by now former postdoctoral researcher, Dr. Yunliang Zang.

Depois de concluído, a equipe descobriu que, pela primeira vez, o novo modelo foi capaz de replicar o comportamento exclusivo dependente da taxa de disparo.

In the model, they saw that in the interval between spikes, the Purkinje neuron’s membrane voltage in slowly firing neurons was much lower than the rapidly firing ones.

“In order to trigger a new spike, the membrane voltage has to be high enough to reach a threshold. When the neurons fire at a high rate, their higher membrane voltage makes it easier for perturbing inputs, which slightly increase the membrane voltage, to cross this threshold and cause a new spike,” explained Prof. De Schutter.

Os pesquisadores descobriram que essas diferenças na voltagem da membrana entre os neurônios de disparo rápido e lento se deviam aos tipos específicos de canais de íon de potássio nos neurônios de Purkinje.

“The previous models were developed with only the generic types of potassium channels that we knew about. But the new model is much more detailed and complex, including data about many Purkinje cell-specific types of potassium channels. So that’s why this unique behavior could finally be replicated and understood,” said Prof. De Schutter.

A chave para a sincronização

Os pesquisadores então decidiram usar seu modelo para explorar os efeitos desse comportamento em uma escala maior, através de uma rede de neurônios de Purkinje. Eles descobriram que em altas taxas de disparo, os neurônios começaram a se sincronizar e disparar juntos ao mesmo tempo. Então, quando a taxa de tiro diminuiu, essa coordenação foi rapidamente perdida.

Usando um modelo matemático mais simples, o Dr. Sungho Hong, um líder de grupo na unidade, confirmou que essa ligação era devida à diferença em quão rápido e lento os neurônios de Purkinje responderam a picos de neurônios conectados.

“This makes intuitive sense,” said Prof. De Schutter. Ele explicou que para os neurônios serem capazes de sincronizar, eles precisam ser capazes de adaptar sua taxa de disparo em resposta às entradas do cerebelo. “So this syncing with other spikes only occurs when Purkinje neurons are firing rapidly,” he added.

O papel da sincronia ainda é controverso na neurociência, com sua função exata ainda pouco compreendida. Mas muitos pesquisadores acreditam que a sincronização da atividade neural desempenha um papel nos processos cognitivos, permitindo a comunicação entre regiões distantes do cérebro. Para os neurônios de Purkinje, eles permitem que sinais fortes e oportunos sejam enviados, o que estudos experimentais sugeriram que podem ser importantes para iniciar o movimento.

“This is the first time that research has explored whether the rate at which neurons fire affects their ability to synchronize and explains how these assemblies of synchronized neurons quickly appear and disappear,” said Prof. De Schutter. “We may find that other circuits in the brain also rely on this rate-dependent mechanism.”

A equipe agora planeja continuar usando o modelo para investigar mais profundamente como essas células cerebrais funcionam, tanto individualmente quanto em rede. E, à medida que a tecnologia se desenvolve e o poder da computação se fortalece, o Prof. De Schutter tem uma ambição de vida definitiva.

“My goal is to build the most complex and realistic model of a neuron possible,” said Prof. De Schutter. “OIST has the resources and computing power to do that, to carry out really fun science that pushes the boundary of what’s possible. Only by delving into deeper and deeper detail in neurons, can we really start to better understand what’s going on.”

Contato de mídia
Tomomi Okubo
[e-mail & # 160 protegido]

Original Source

https:/ / www. oist. jp/ news-center/ press-releases/ model-shows-speed-neurons-fire-impacts-their-ability-synchronize


O modelo mostra que a velocidade de disparo dos neurônios afeta sua capacidade de sincronizar

As membranas celulares têm uma voltagem através delas devido à distribuição desigual de partículas carregadas, chamadas íons, entre o interior e o exterior da célula. Neurons can shuttle ions across their membrane through channels and pumps, which changes the voltage of the membrane. Fast firing Purkinje neurons have a higher membrane voltage than slow firing neurons. Credit: Image modified from "How neurons communicate: Figure 2," by OpenStax College, Biology (CC BY 4.0).

Pesquisa conduzida pela Unidade de Neurociência Computacional do Instituto de Ciência e Tecnologia da Universidade de Pós-Graduação (OIST) de Okinawa mostrou pela primeira vez que um modelo de computador pode replicar e explicar uma propriedade única exibida por uma célula cerebral crucial. Suas descobertas, publicadas hoje em eLife, lançam luz sobre como grupos de neurônios podem se auto-organizar por meio da sincronização quando disparam rapidamente.

O modelo se concentra nos neurônios de Purkinje, que são encontrados no cerebelo. Essa densa região do cérebro posterior recebe informações do corpo e de outras áreas do cérebro para ajustar a precisão e o tempo do movimento, entre outras tarefas.

"As células de Purkinje são um alvo atraente para a modelagem computacional, pois sempre houve muitos dados experimentais para se extrair", disse o professor Erik De Schutter, que lidera a Unidade de Neurociência Computacional. "Mas, alguns anos atrás, pesquisas experimentais nesses neurônios revelaram um comportamento estranho que não podia ser replicado em nenhum modelo existente."

Esses estudos mostraram que a taxa de disparo de um neurônio de Purkinje afetava a forma como ele reagia aos sinais emitidos por outros neurônios vizinhos.

A taxa na qual um neurônio emite sinais elétricos é um dos meios mais cruciais de transmissão de informações a outros neurônios. Spikes, or action potentials, follow an "all or nothing" principle—either they occur, or they don't—but the size of the electrical signal never changes, only the frequency. Quanto mais forte a entrada de um neurônio, mais rápido ele dispara.

Mas os neurônios não disparam de maneira independente. "Os neurônios estão conectados e emaranhados com muitos outros neurônios que também transmitem sinais elétricos. Esses picos podem perturbar os neurônios vizinhos por meio de conexões sinápticas e alterar seu padrão de disparo", explicou o professor De Schutter.

Curiosamente, quando uma célula de Purkinje dispara lentamente, os picos das células conectadas têm pouco efeito sobre o aumento do neurônio. Mas, quando a taxa de disparo é alta, o impacto dos picos de entrada aumenta e faz a célula de Purkinje disparar mais cedo.

"Os modelos existentes não conseguiam replicar esse comportamento e, portanto, não podiam explicar por que isso acontecia. Embora os modelos fossem bons em simular picos, faltavam dados sobre como os neurônios agiam nos intervalos entre os picos", disse o Prof. De Schutter. "Ficou claro que um modelo mais novo incluindo mais dados era necessário."

When a group of Purkinje neurons fire rapidly, loose synchronization occurs. This can be seen by the spikes occurring in groups at regular intervals (highlighted in yellow). When Purkinje neurons fire slowly, this synchronization does not occur. Credit: OIST

Felizmente, a unidade do Prof. De Schutter tinha acabado de desenvolver um modelo atualizado, uma tarefa imensa realizada principalmente pelo agora ex-pesquisador de pós-doutorado, Dr. Yunliang Zang.

Depois de concluído, a equipe descobriu que, pela primeira vez, o novo modelo foi capaz de replicar o comportamento exclusivo dependente da taxa de disparo.

No modelo, eles viram que no intervalo entre os picos, a voltagem da membrana do neurônio de Purkinje em neurônios de disparo lento era muito mais baixa do que os de disparo rápido.

"Para desencadear um novo pico, a voltagem da membrana deve ser alta o suficiente para atingir um limite. Quando os neurônios disparam em alta taxa, a voltagem mais alta da membrana torna mais fácil perturbar as entradas, que aumentam ligeiramente a voltagem da membrana, para cruzar esse limite e causar um novo pico ", explicou o Prof. De Schutter.

Os pesquisadores descobriram que essas diferenças na voltagem da membrana entre os neurônios de disparo rápido e lento se deviam aos tipos específicos de canais de íon de potássio nos neurônios de Purkinje.

"Os modelos anteriores foram desenvolvidos apenas com os tipos genéricos de canais de potássio que conhecíamos. Mas o novo modelo é muito mais detalhado e complexo, incluindo dados sobre muitos tipos específicos de células de Purkinje de canais de potássio. É por isso que esse comportamento único poderia finalmente ser replicado e compreendido ", disse o Prof. De Schutter.

A chave para a sincronização

Os pesquisadores então decidiram usar seu modelo para explorar os efeitos desse comportamento em uma escala maior, através de uma rede de neurônios de Purkinje. Eles descobriram que em altas taxas de disparo, os neurônios começaram a se sincronizar e disparar juntos ao mesmo tempo. Então, quando a taxa de tiro diminuiu, essa coordenação foi rapidamente perdida.

Usando um modelo matemático mais simples, o Dr. Sungho Hong, um líder de grupo na unidade, confirmou que essa ligação era devida à diferença em quão rápido e lento os neurônios de Purkinje responderam a picos de neurônios conectados.

"Isso faz sentido intuitivamente", disse o Prof. De Schutter. Ele explicou que para os neurônios serem capazes de sincronizar, eles precisam ser capazes de adaptar sua taxa de disparo em resposta às entradas do cerebelo. "Portanto, essa sincronização com outros picos ocorre apenas quando os neurônios de Purkinje estão disparando rapidamente", acrescentou.

O papel da sincronia ainda é controverso na neurociência, com sua função exata ainda pouco compreendida. Mas muitos pesquisadores acreditam que a sincronização da atividade neural desempenha um papel nos processos cognitivos, permitindo a comunicação entre regiões distantes do cérebro. Para os neurônios de Purkinje, eles permitem que sinais fortes e oportunos sejam enviados, o que estudos experimentais sugeriram que podem ser importantes para iniciar o movimento.

"Esta é a primeira vez que a pesquisa explorou se a taxa na qual os neurônios disparam afeta sua capacidade de sincronizar e explica como esses conjuntos de neurônios sincronizados aparecem e desaparecem rapidamente", disse o professor De Schutter. "Podemos descobrir que outros circuitos no cérebro também dependem desse mecanismo dependente da taxa."

A equipe agora planeja continuar usando o modelo para investigar mais profundamente como essas células cerebrais funcionam, tanto individualmente quanto em rede. E, à medida que a tecnologia se desenvolve e o poder da computação se fortalece, o Prof. De Schutter tem uma ambição de vida definitiva.

"Meu objetivo é construir o modelo mais complexo e realista possível de um neurônio", disse o Prof. De Schutter. "O OIST tem os recursos e o poder de computação para fazer isso, para realizar ciência realmente divertida que amplia os limites do que é possível. Somente nos aprofundando cada vez mais nos detalhes dos neurônios, podemos realmente começar a entender melhor o que está acontecendo."


Assista o vídeo: nunca mais tenha faca cega sem corte (Agosto 2022).