Calcul et apprentissage non linéaires sur les réseaux de communication
L’essor des grands modèles de langage (LLMs), dont l’échelle sans précédent nécessite un apprentissage et une inférence distribués, a accentué le besoin de systèmes distribués efficaces en communication et en calcul. En particulier, l’apprentissage et l’inférence dans les LLM reposent sur des transformations non linéaires, notamment les fonctions d’activation et les mécanismes d’attention.