-
Notifications
You must be signed in to change notification settings - Fork 0
/
README
8 lines (7 loc) · 3.52 KB
/
README
1
2
3
4
5
6
7
8
Análise aprofundada do capítulo 0 (zero) do livro "The Principles of Deep Learning Theory"
Implicitamente, a aprendizagem profunda utiliza redes neurais artificiais para a Inteligência Artificial (IA). Baseadas nas redes neurais biológicas, as redes neurais artificiais são melhor pensadas, devido um conjunto flexível de funções, que são construídas a partir de blocos computacionais, que são chamados de neurônios, e atualmente as redes neurais podem ter cerca de 100 bilhões de parâmetros. Esse modelo computacional é diferente, pois, em vez de programar um conjunto específico de instruções para resolver diretamente um problema, os modelos de aprendizagem profunda são treinados com dados do mundo real e assim aprendem a resolver os problemas. Há muitos neurônios organizados em paralelo, em camadas sequenciais, aprendendo diversas representações úteis no mundo.
Essa forma de aprendizagem é considerada um sucesso, tanto artificial, quanto biológica, embora ainda apresente uma série de desconexões entre a teoria e a prática. No entanto, os autores apresentam uma abordagem teórica eficaz, comparando o imenso universo do programa de física, na modelagem do universo físico, que sugere ferramentas úteis para compreender teoricamente as redes neurais profundas. Destaca-se nesse contexto a aplicação incansável da mecânica estatística, que resultou na descoberta da mecânica quântica, a qual é pioneira na invenção do transistor, que alimenta a Era da Informação, e, que permite de tal modo a criação de máquinas artificiais capazes de pensar de forma inteligente.
É importante ressaltar que uma compreensão teórica dos primeiros princípios de redes neurais profundas é necessária. Pois, de acordo com os autores, é importante compreender as técnicas computacionais, mas, é mais importante compreender se a técnica corresponde a cenários realistas de aprendizagem profunda. Problemas técnicos são apresentados, e como possível solução é apresentada a representação de Taylor como comparação para compreender as funções das redes treinadas.
Compreende-se dessa forma que o algoritmo de aprendizado é iterativo, acumulando alterações em muitas etapas, e a dinâmica não é linear. Os autores apontam os problemas na largura infinita, que leva a um modelo ruim de redes neurais, bem como, a distribuição treinada também pode levar a uma incompatibilidade entre a teoria e a observação, e podem restringir a classe de funções que essas redes são capazes de aprender. Acontece então a quebra da correspondência entre teoria e realidade, no limite de largura infinita.
De forma teórica, o problema desse limite é a eliminação dos detalhes em cada neurônio, de acordo com a quantidade infinita de sinais de entrada. Para solução, é preciso encontrar uma forma de restaurar e depois compreender as interações dos neurônios presentes em redes realistas de largura finita. Aqui pode ser utilizada a teoria da perturbação, em que as correções se tornam pequenas quando a largura for grande. Desse modo, o limite de largura infinita é recuado e a distribuição é calculada.
Por fim, as teorias de interação, perturbação e perturbação dinâmica são apresentadas, bem como suas contribuições e limitações no campo do aprendizado profundo. As ideias apresentadas pelos autores descrevem um conceito ainda incompleto e em construção. Portanto, pesquisas e análises mais profundas são necessárias para compreender de fato se as redes são relativamente, efetivamente ou realmente profundas.