Glossaire

Tokenisation

La tokenisation décompose le texte en unités individuelles (tokens) pour faciliter l'analyse et la le traitement du langage.