Redes Neurais Artificiais
Origem: Wikipédia, a enciclopédia livre.
No campo da inteligência artificial da informática, Redes Neurais Artificiais (RNA), são sistemas não lineares que imitam o mecanismo de processamento do cérebro humano.
As primeiras informações sobre neurocomputação surgiram em 1943, em artigos de um neurofisiologista chamado Warren McCulloch, do MIT, e pelo matemático Walter Pitts da Universidade de Illinois, onde fizeram uma analogia entre células nervosas vivas e o processo eletrônico em um trabalho publicado sobre "neurônios formais", simulando o comportamento do neurônio natural, onde o neurônio possuía apenas uma saída, que era uma função da soma de valor de suas diversas entradas. O trabalho consistia num modelo de resistores variáveis e amplificadores representando conexões sinápticas de um neurônio biológico.
As redes neurais artificiais são um método para solucionar problemas através da simulação do cérebro humano, inclusive em seu comportamento, ou seja, aprendendo, errando e fazendo descobertas. São técnicas computacionais que apresentam um modelo inspirado na estrutura neural de organismos inteligentes e que adquirem conhecimento através da experiência.
As redes neurais possuem nós ou unidades de processamento. Cada unidade possui links para outras unidades, no qual recebem e enviam sinais. Cada unidade pode possuir memória local.
Estas unidades são a simulação dos neurônios, recebendo e retransmitindo informações. Soma-se as entradas e retorna uma saída, caso esta seja maior que o valor da soma.
Um rede neural pode possuir uma ou múltiplas camadas. Exemplificando com três camadas, poderíamos ter a camada de entrada, onde as unidades recebem os padrões, a camada intermediária, onde é feito processamento e a extração de características, e a camada de saída que conclui e apresenta o resultado final. Quanto maior o número de camadas, melhor a capacidade de aprendizado. A camada de entrada deve possuir uma unidade especial conhecida como "bias", que serve para aumentar os graus de liberdade, permitindo uma melhor adaptação, por parte da rede neural, ao conhecimento à ela fornecido.
Em termos mais técnicos, o número de camadas define a capacidade de representação das relações entre o espaço de entrada e de saída. A inexistência da camada intermediária, característica do modelo Perceptrons, condiciona-o a representar bem somente relações linearmente independentes. A existência de camadas intermediárias, característica do modelo Perceptron de Múltipla Camada (MLP), retira tal limitação. Se houver apenas uma camada intermediária, o MLP pode representar (com qualquer grau de aproximação, por menor que seja...) qualquer função contínua. Duas ou mais camadas, ampliam o universo de representação a qualquer função contínua ou não.
Redes Neurais Artificiais, seguindo a tradição norte-americana, estão muito associadas à adaptação de conexões (sinapses) entre neurônios, ao Conexionismo. Cabe registrar, entretanto, a existência de modelos onde as conexões não são adaptadas, mas, sim, apenas transmitem estimulação entre neurônios. Tais modelos são chamados Redes Neurais Sem Pesos (do Inglês, Weightless Neural Networks). Para completar, há modelos onde as sinapses não são adaptadas, mas calculadas previamente, servindo a tarefas de otimização geralmente...