Under 2000-talet har fältet kommit att domineras av självlärande system, så kallade stora språkmodeller (engelska large language model, LLM), som matas med mycket stora mängder naturligt producerat språk, så kallade (text)korpusar, och är designade att lära sig sannolikheter snarare än absoluta kategorier och regler, där sannolikheterna baseras på omfattande språklig kontext.

De mest framgångsrika självlärande systemen inom modern språkteknologi bygger på så kallade artificiella neuronnät (ANN), en teknologi som ursprungligen föreslogs

(71 av 506 ord)
Vill du få tillgång till hela artikeln?

Källangivelse
Nationalencyklopedin, Stora språkmodeller. http://www.ne.se/uppslagsverk/encyklopedi/lång/språkteknologi/stora-språkmodeller