top of page

O Cérebro e a Máquina: Como o Genoma inspira novos Algoritmos de IA


Resumo:

Na biologia, o genoma funciona como uma restrição — ele tem capacidade limitada para transmitir informações de uma geração para outra. Isso força o sistema evolutivo a priorizar as regras mais úteis e gerais para construir um organismo funcional desde o nascimento. Da mesma forma, o processo de compressão nas redes artificiais ajuda a identificar as características mais importantes, criando um sistema eficiente e adaptável.


Muitos animais já nascem com habilidades comportamentais impressionantes. Por exemplo, aranhas podem tecer teias, baleias sabem nadar, e certos macacos têm um medo inato de cobras. Isso parece mágico, mas é um reflexo de como a evolução moldou esses comportamentos. 


Animais que conseguem realizar tarefas essenciais logo após o nascimento têm mais chances de sobreviver durante os primeiros dias vulneráveis, aumentando suas chances de reprodução.


Essas habilidades são chamadas de comportamentos inatos. Eles não precisam ser aprendidos; já estão "programados" no cérebro desde o nascimento. Isso é diferente dos comportamentos aprendidos, que requerem experiência e prática. No entanto, essas duas categorias não são completamente separadas.  

Os comportamentos inatos fornecem a base para o aprendizado, e as habilidades de um animal são resultado da interação entre os dois.


Mas como esses comportamentos inatos são "escritos" no cérebro? Eles são codificados no genoma — o conjunto completo de informações genéticas de um organismo. É aqui que as coisas ficam intrigantes: o genoma tem uma capacidade limitada de informação.


Ele precisa transmitir instruções para a formação de circuitos cerebrais complexos, mas não tem espaço suficiente para especificar cada detalhe. Isso cria um problema conhecido como gargalo genômico.


Imagine que você precisa explicar como construir uma cidade inteira usando apenas um pequeno manual de instruções. É assim que funciona o genoma. Ele não pode especificar cada conexão entre os bilhões de neurônios do cérebro humano. 


Por exemplo, o verme Caenorhabditis elegans tem 302 neurônios e um genoma com capacidade suficiente para especificar cada uma dessas conexões. Já o cérebro humano, com cerca de 86 bilhões de neurônios, exige uma quantidade de informações muito maior do que o genoma pode oferecer.


Para resolver esse problema, o genoma não fornece um "mapa" completo, mas sim um conjunto de regras. Essas regras definem como os neurônios se conectam durante o desenvolvimento. Neurônios podem ser instruídos a se conectar aos seus vizinhos mais próximos, criando padrões simples como grades.  

Essas células podem usar sinais químicos para "encontrar" seus destinos, como axônios seguindo trilhas de marcadores de superfície. Alem disso, o cérebro organiza estruturas em "colunas" que podem ser replicadas, reduzindo a necessidade de especificar cada conexão individualmente.


Essas regras permitem que estruturas complexas se formem a partir de instruções relativamente simples, como a organização do córtex visual ou a formação de campos receptivos.


No entanto, essas regras não explicam diretamente comportamentos inatos mais sofisticados, como o medo de cobras ou a habilidade de uma aranha construir uma teia. Esses comportamentos exigem redes neurais que podem realizar cálculos avançados. 


Para entender como isso funciona, os cientistas se inspiraram em redes neurais artificiais (RNA), usadas em inteligência artificial (IA).

Neuronio natural versus rede neural artificial. Fonte: Promact


Assim como o cérebro, uma RNA tem pesos que determinam como os "neurônios" artificiais estão conectados. Esses pesos são como instruções para realizar tarefas. Os pesquisadores mostraram que é possível comprimir essas instruções em um "genoma" artificial muito menor. 


Isso significa que, mesmo com uma quantidade limitada de informações, uma RNA pode realizar tarefas complexas desde o início, sem treinamento adicional.


Essa compressão é análoga ao gargalo genômico no cérebro. A evolução "compacta" as instruções genéticas para criar circuitos eficientes que permitem que os animais realizem tarefas essenciais logo após o nascimento.


Embora o gargalo genômico pareça uma limitação, ele pode ser uma vantagem. Ele força a evolução a priorizar os circuitos mais importantes, que podem ser adaptados para diferentes tarefas. Isso funciona como um regularizador — um mecanismo que simplifica os circuitos e os torna mais robustos.


Os pesquisadores propõem que a evolução funciona em dois níveis:


  1. Aprendizado interno: Os animais ajustam seus comportamentos ao longo da vida, com base em experiências.


  2. Evolução externa: O genoma é refinado ao longo de gerações para codificar circuitos melhores.


Essa abordagem pode inspirar novos algoritmos em IA, combinando comportamentos inatos (pré-treinados) com aprendizado adaptativo.



LEIA MAIS:


Encoding innate ability through a genomic bottleneck

Sergey Shuvaev, Divyansha Lachi, Alexei Koulakov, and Anthony Zador

PNAS, September 12, 2024. 121 (38) e2409160121

 

Abstract:


Animals are born with extensive innate behavioral capabilities, which arise from neural circuits encoded in the genome. However, the information capacity of the genome is orders of magnitude smaller than that needed to specify the connectivity of an arbitrary brain circuit, indicating that the rules encoding circuit formation must fit through a “genomic bottleneck” as they pass from one generation to the next. Here, we formulate the problem of innate behavioral capacity in the context of artificial neural networks in terms of lossy compression of the weight matrix. We find that several standard network architectures can be compressed by several orders of magnitude, yielding pretraining performance that can approach that of the fully trained network. Interestingly, for complex but not for simple test problems, the genomic bottleneck algorithm also captures essential features of the circuit, leading to enhanced transfer learning to novel tasks and datasets. Our results suggest that compressing a neural circuit through the genomic bottleneck serves as a regularizer, enabling evolution to select simple circuits that can be readily adapted to important real-world tasks. The genomic bottleneck also suggests how innate priors can complement conventional approaches to learning in designing algorithms for AI.


Commentaires


bottom of page