Zer aurkituko duzu hemen?
LLMaren barne funtzionamendua
Nola prozesatzen du testua LLM batek?
1. Tokenizazioa: Testua zatitzen
LLMak testua token txikietan banatzen du prozesatu ahal izateko. Tokenizazioa da LLMaren lehen urratsa, eta oso garrantzitsua da prozesamendu eraginkorra lortzeko.
Adibidea: Hitz arruntak
“Kaixo lagun!” β
Kai xo la gun !Adibidea: Hitz teknikoak
“Immunofluoreszentzia” β
Immun of lu or eszent ziaTokenizazioak hitz konplexuak zatitzen ditu ulergarriagoak diren unitateetan.
2. Embedding: Zenbakietara itzultzea
Token bakoitza zenbakizko bektore batean bihurtzen da. Bektore hauek hitzen esanahia eta ezaugarriak gordetzen dituzte espazio matematiko batean.
Adibidea: Antzeko hitzak
Animaliak direnez, beraien bektoreak antzekoak dira espazioan.
Adibidea: Hitz desberdinak
Esanahi desberdina dutenez, beraien bektoreak oso desberdinak dira.
3. Arreta mekanismoa: Erlazioak ulertzen
Token bakoitzak beste tokenekin duen erlazioa aztertzen da, testuinguruaren arabera hitzen esanahia ulertzeko.
Adibidea: Hitz beraren esanahi desberdinak
Arreta mekanismoak testuinguruaren arabera “banku” hitzaren esanahi egokia aukeratzen du.
Adibidea: Erreferentziak
Jonek liburua erosi zuen. Berak irakurri zuen.
Arreta mekanismoak “berak” hitza “Jone”-rekin lotzen du.
4. Iragarpen prozesua: Erantzuna sortzen
Sistemak probabilitateak kalkulatzen ditu hurrengo hitza aukeratzeko, testuingurua eta ikasitako patroiak erabiliz.
Adibidea: Sekuentzia logikoak
Astelehena, asteartea, asteazkena, osteguna, ostirala, …
Adibidea: Testuinguru kulturala
Patata tortilla bat egiteko behar dira: Arrautzak, Patatak, …
Laburpena
- Tokenizazioa: testua unitate txikiagoetan zatitzen da prozesamendu eraginkorrerako
- Embedding: tokenak zenbakizko bektoreetan bihurtzen dira, esanahia mantenduz
- Arreta: tokenen arteko erlazioak aztertzen dira testuingurua ulertzeko
- Iragarpena: probabilitateen bidez erantzun egokiena aukeratzen da
Sistema honi esker, LLMak gai dira hizkuntza ulertu eta sortzeko, gizakien antzeko elkarrizketak mantentzeko.
Kontuan izan behar da LLMek ez dutela benetan “ulertzen” zentzu kognitiboan, baizik eta patroi estatistikoak erabiltzen dituztela erantzun egokiak sortzeko.