Pourquoi les réseaux profonds et les cerveaux apprennent des fonctionnalités similaires avec Sophia Sanborn
Aujourd’hui, nous sommes rejoints par Sophia Sanborn, érudit postdoctoral à l’Université de Californie à Santa Barbara. Dans notre conversation avec Sophia, nous explorons le concept d’universalité entre les représentations neuronales et les réseaux de neurones profonds, et comment ces principes d’efficacité offrent une capacité à trouver des caractéristiques cohérentes entre les réseaux et les tâches. We also discuss her recent paper on Bispectral Neural Networks which focuses on Fourier transform and its relation to group theory, the implementation of bi-spectral spectrum in achieving invariance in deep neural networks, the expansion of geometric deep learning on the concept of CNNs from other domains, the similarities in the fundamental structure of artificial neural networks and biological neural networks and how applying similar constraints leads to the convergence de leurs solutions.
