Dans cette conférence faite en février 2019 à ISSCC à SanFrancisco, Yann LeCun résume la recherche sur les réseaux neuronaux depuis les années 80.
Sans repartir du perceptron, Yann LeCun nous explique les 4 grandes évolutions de la recherche en IA sur le deep learning.
A chaque étape il nous montre les limites atteintes et les progrès à réaliser.
A la dernière étape (l’actuelle), Yann LeCun, constate que la limite à franchir et sur laquelle la recherche progresse, est celle de l’imagination, de l’anticipation et de la prédiction. Elle est pour lui essentiel à la diminution du coût de l’apprentissage pour les réseaux neuronaux.
Enfin Yann LeCun termine sur ses spéculations pour l’avenir :
- le neuromorphisme auquel il croit peut. Pourtant les premières étapes ont étés fortement guidé par le mimétisme neuronal. L’avenir est-il pour lui dans le biomorphisme? (imitation biologique).
- Et les technologies qu’il qualifie « d’exotic ».
Je suppose que Yann LeCun a ciblé son discours sur les limitations de puissance de calcul afin de s’adapter au public de l’ISSCC.
Vous devez être connecté pour poster un commentaire.