Megosztás a következőn keresztül:


Indexes - Analyze

Azt mutatja be, hogy egy elemző hogyan töri fel a szöveget jogkivonatokra.

POST {endpoint}/indexes('{indexName}')/search.analyze?api-version=2024-07-01

URI-paraméterek

Name In Kötelező Típus Description
endpoint
path True

string

A keresési szolgáltatás végponti URL-címe.

indexName
path True

string

Annak az indexnek a neve, amelynek az elemzőt tesztelnie kell.

api-version
query True

string

Ügyfél API-verziója.

Kérelem fejléce

Name Kötelező Típus Description
x-ms-client-request-id

string

uuid

A kéréssel együtt küldött nyomkövetési azonosító, amely segít a hibakeresésben.

Kérelem törzse

Name Kötelező Típus Description
text True

string

A jogkivonatokra törni kívánt szöveg.

analyzer

LexicalAnalyzerName

A megadott szöveg megszakításához használandó elemző neve. Ha ez a paraméter nincs megadva, ehelyett tokenizert kell megadnia. A tokenizer és az elemző paraméterei kölcsönösen kizárják egymást.

charFilters

CharFilterName[]

A megadott szöveg feltörésekor használandó karakterszűrők választható listája. Ez a paraméter csak a tokenizer paraméter használatakor állítható be.

tokenFilters

TokenFilterName[]

A megadott szöveg feltörésekor használandó jogkivonatszűrők opcionális listája. Ez a paraméter csak a tokenizer paraméter használatakor állítható be.

tokenizer

LexicalTokenizerName

A jogkivonat-szabályzó neve, amely a megadott szöveg megszakításához használható. Ha ez a paraméter nincs megadva, ehelyett egy elemzőt kell megadnia. A tokenizer és az elemző paraméterei kölcsönösen kizárják egymást.

Válaszok

Name Típus Description
200 OK

AnalyzeResult

Other Status Codes

ErrorResponse

Hibaválasz.

Példák

SearchServiceIndexAnalyze

Mintakérelem

POST https://myservice.search.windows.net/indexes('hotels')/search.analyze?api-version=2024-07-01

{
  "text": "Text to analyze",
  "analyzer": "standard.lucene"
}

Mintaválasz

{
  "tokens": [
    {
      "token": "text",
      "startOffset": 0,
      "endOffset": 4,
      "position": 0
    },
    {
      "token": "to",
      "startOffset": 5,
      "endOffset": 7,
      "position": 1
    },
    {
      "token": "analyze",
      "startOffset": 8,
      "endOffset": 15,
      "position": 2
    }
  ]
}

Definíciók

Name Description
AnalyzedTokenInfo

Információ egy elemző által visszaadott jogkivonatról.

AnalyzeRequest

A szöveg jogkivonatokra való feltöréséhez használt szöveg- és elemzési összetevőket adja meg.

AnalyzeResult

Az elemző szövegen való tesztelésének eredménye.

CharFilterName

Meghatározza a keresőmotor által támogatott összes karakterszűrő nevét.

ErrorAdditionalInfo

Az erőforrás-kezelési hiba további információi.

ErrorDetail

A hiba részletei.

ErrorResponse

Hibaválasz

LexicalAnalyzerName

Meghatározza a keresőmotor által támogatott összes szövegelemző nevét.

LexicalTokenizerName

Meghatározza a keresőmotor által támogatott összes tokenizer nevét.

TokenFilterName

Meghatározza a keresőmotor által támogatott összes jogkivonatszűrő nevét.

AnalyzedTokenInfo

Információ egy elemző által visszaadott jogkivonatról.

Name Típus Description
endOffset

integer

A jogkivonat utolsó karakterének indexe a bemeneti szövegben.

position

integer

A jogkivonat pozíciója a bemeneti szövegben más jogkivonatokhoz képest. A bemeneti szöveg első tokenje 0, a következő pedig az 1. pozícióval rendelkezik, és így tovább. A használt elemzőtől függően előfordulhat, hogy egyes jogkivonatok azonos helyzetben vannak, például ha egymással szinonimák.

startOffset

integer

A jogkivonat első karakterének indexe a bemeneti szövegben.

token

string

Az elemző által visszaadott jogkivonat.

AnalyzeRequest

A szöveg jogkivonatokra való feltöréséhez használt szöveg- és elemzési összetevőket adja meg.

Name Típus Description
analyzer

LexicalAnalyzerName

A megadott szöveg megszakításához használandó elemző neve. Ha ez a paraméter nincs megadva, ehelyett tokenizert kell megadnia. A tokenizer és az elemző paraméterei kölcsönösen kizárják egymást.

charFilters

CharFilterName[]

A megadott szöveg feltörésekor használandó karakterszűrők választható listája. Ez a paraméter csak a tokenizer paraméter használatakor állítható be.

text

string

A jogkivonatokra törni kívánt szöveg.

tokenFilters

TokenFilterName[]

A megadott szöveg feltörésekor használandó jogkivonatszűrők opcionális listája. Ez a paraméter csak a tokenizer paraméter használatakor állítható be.

tokenizer

LexicalTokenizerName

A jogkivonat-szabályzó neve, amely a megadott szöveg megszakításához használható. Ha ez a paraméter nincs megadva, ehelyett egy elemzőt kell megadnia. A tokenizer és az elemző paraméterei kölcsönösen kizárják egymást.

AnalyzeResult

Az elemző szövegen való tesztelésének eredménye.

Name Típus Description
tokens

AnalyzedTokenInfo[]

A kérelemben megadott elemző által visszaadott jogkivonatok listája.

CharFilterName

Meghatározza a keresőmotor által támogatott összes karakterszűrő nevét.

Name Típus Description
html_strip

string

Egy karakterszűrő, amely megpróbálja kiszűrni a HTML-szerkezeteket. Lásd: https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

ErrorAdditionalInfo

Az erőforrás-kezelési hiba további információi.

Name Típus Description
info

object

A további információk.

type

string

A további információtípus.

ErrorDetail

A hiba részletei.

Name Típus Description
additionalInfo

ErrorAdditionalInfo[]

A hiba további információi.

code

string

A hibakód.

details

ErrorDetail[]

A hiba részletei.

message

string

A hibaüzenet.

target

string

A hibacél.

ErrorResponse

Hibaválasz

Name Típus Description
error

ErrorDetail

A hibaobjektum.

LexicalAnalyzerName

Meghatározza a keresőmotor által támogatott összes szövegelemző nevét.

Name Típus Description
ar.lucene

string

Lucene elemző arabhoz.

ar.microsoft

string

Microsoft analyzer for Arab.

bg.lucene

string

Lucene elemző bolgárnak.

bg.microsoft

string

Microsoft analyzer for Bolgár.

bn.microsoft

string

A Bangla Microsoft-elemzője.

ca.lucene

string

Lucene elemző katalánnak.

ca.microsoft

string

A Katalán Microsoft elemzője.

cs.lucene

string

Lucene elemző csehnek.

cs.microsoft

string

Microsoft analyzer for Czech.

da.lucene

string

Lucene elemző dánnak.

da.microsoft

string

Microsoft analyzer dán nyelven.

de.lucene

string

Lucene elemző németnek.

de.microsoft

string

Microsoft analyzer for German.

el.lucene

string

Lucene elemző görögnek.

el.microsoft

string

Microsoft analyzer for Greek.

en.lucene

string

Lucene elemző angolul.

en.microsoft

string

Microsoft analyzer for English.

es.lucene

string

Lucene elemző spanyolnak.

es.microsoft

string

Microsoft analyzer for Spanyol.

et.microsoft

string

Microsoft analyzer az észtekhez.

eu.lucene

string

Lucene elemző baszknak.

fa.lucene

string

Lucene elemző perzsa.

fi.lucene

string

Lucene elemző finnnek.

fi.microsoft

string

Microsoft analyzer for Finn.

fr.lucene

string

Lucene elemző franciának.

fr.microsoft

string

Microsoft analyzer for French.

ga.lucene

string

Lucene elemző írnek.

gl.lucene

string

Lucene elemző galíciainak.

gu.microsoft

string

Microsoft analyzer for Gujarati.

he.microsoft

string

Microsoft analyzer for Héber.

hi.lucene

string

Lucene elemző hindinek.

hi.microsoft

string

Microsoft analyzer for Hindi.

hr.microsoft

string

Microsoft analyzer for Horvát.

hu.lucene

string

Lucene elemző magyarnak.

hu.microsoft

string

Microsoft analyzer for Hungarian.

hy.lucene

string

Lucene elemző örménynek.

id.lucene

string

Lucene elemző indonéznek.

id.microsoft

string

Indonéz Microsoft-elemző (Bahasa).

is.microsoft

string

A Microsoft izlandi elemzője.

it.lucene

string

Lucene elemző olasznak.

it.microsoft

string

Microsoft analyzer for Italian.

ja.lucene

string

Lucene elemző japánnak.

ja.microsoft

string

Microsoft Analyzer japánhoz.

keyword

string

Egy mező teljes tartalmát egyetlen jogkivonatként kezeli. Ez olyan adatok esetében hasznos, mint az irányítószámok, az azonosítók és néhány terméknév. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html

kn.microsoft

string

A Kannada Microsoft-elemzője.

ko.lucene

string

Lucene elemző koreainak.

ko.microsoft

string

Microsoft-elemző koreaihoz.

lt.microsoft

string

Microsoft-elemző litvánhoz.

lv.lucene

string

Lucene elemző lettnek.

lv.microsoft

string

Microsoft analyzer for Lett.

ml.microsoft

string

Microsoft-elemző malajalamhoz.

mr.microsoft

string

Marathi Microsoft-elemzője.

ms.microsoft

string

Microsoft Analyzer for Maly (latin).

nb.microsoft

string

Microsoft analyzer for Norwegian (Bokmål).

nl.lucene

string

Lucene elemző hollandnak.

nl.microsoft

string

Microsoft analyzer for Holland.

no.lucene

string

Lucene elemző norvégnak.

pa.microsoft

string

A Punjabi microsoft-elemzője.

pattern

string

A szöveget rugalmasan elválasztja kifejezésekké egy reguláris kifejezésmintán keresztül. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html

pl.lucene

string

Lucene elemző lengyelnek.

pl.microsoft

string

Microsoft analyzer for Lengyel.

pt-BR.lucene

string

Lucene analyzer for Portugál (Brazília).

pt-BR.microsoft

string

Microsoft analyzer for Portugál (Brazília).

pt-PT.lucene

string

Lucene analyzer for Portugál (Portugália).

pt-PT.microsoft

string

Microsoft analyzer for Portugál (Portugália).

ro.lucene

string

Lucene elemző románnak.

ro.microsoft

string

Microsoft analyzer for Román.

ru.lucene

string

Lucene elemző orosznak.

ru.microsoft

string

Microsoft-elemző oroszhoz.

simple

string

Nem betűkre osztja a szöveget, és kisbetűssé alakítja őket. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html

sk.microsoft

string

Microsoft analyzer for Szlovák.

sl.microsoft

string

Szlovén Microsoft-elemző.

sr-cyrillic.microsoft

string

Microsoft analyzer for Serbian (cirill betűs).

sr-latin.microsoft

string

Microsoft analyzer for Szerb (latin).

standard.lucene

string

Standard Lucene elemző.

standardasciifolding.lucene

string

Standard ASCII összecsukható Lucene-elemző. Lásd: https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers

stop

string

A szöveget nem betűkkel osztja el; Alkalmazza a kisbetűs és a stopword jogkivonat szűrőit. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html

sv.lucene

string

Lucene elemző svédnek.

sv.microsoft

string

Microsoft analyzer for Svéd.

ta.microsoft

string

Microsoft analyzer for Tamil.

te.microsoft

string

Microsoft-elemző a Teluguhoz.

th.lucene

string

Lucene elemző thaihoz.

th.microsoft

string

Microsoft analyzer for Thai.

tr.lucene

string

Lucene elemző töröknek.

tr.microsoft

string

Microsoft analyzer for Turkish.

uk.microsoft

string

Microsoft analyzer for Ukrán.

ur.microsoft

string

Microsoft analyzer for Urdu.

vi.microsoft

string

A Vietnami Microsoft elemzője.

whitespace

string

A whitespace tokenizert használó elemző. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

zh-Hans.lucene

string

Lucene elemző kínaihoz (egyszerűsített).

zh-Hans.microsoft

string

Microsoft Analyzer kínaihoz (egyszerűsített).

zh-Hant.lucene

string

Lucene elemző kínaihoz (hagyományos).

zh-Hant.microsoft

string

Microsoft analyzer for Chinese (Hagyományos).

LexicalTokenizerName

Meghatározza a keresőmotor által támogatott összes tokenizer nevét.

Name Típus Description
classic

string

Nyelvtanalapú tokenizer, amely alkalmas a legtöbb európai nyelvű dokumentum feldolgozására. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

edgeNGram

string

Tokenizálja a bemenetet egy élről az adott méret(ek) n-grammjára. Lásd: https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

keyword_v2

string

A teljes bemenetet egyetlen jogkivonatként bocsátja ki. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

letter

string

A szöveget nem betűkkel osztja el. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

lowercase

string

Nem betűkre osztja a szöveget, és kisbetűssé alakítja őket. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

microsoft_language_stemming_tokenizer

string

Nyelvspecifikus szabályokkal osztja el a szöveget, és a szavakat az alapformákra csökkenti.

microsoft_language_tokenizer

string

Nyelvspecifikus szabályokkal osztja el a szöveget.

nGram

string

Tokenizálja a bemenetet az adott méret(ek) n-grammjára. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

path_hierarchy_v2

string

Tokenizer elérési utakhoz hasonló hierarchiákhoz. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

pattern

string

A regex mintaegyezést használó tokenizer különböző jogkivonatok létrehozásához. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

standard_v2

string

Standard Lucene-elemző; A standard tokenizerből, kisbetűs szűrőből és stop szűrőből áll. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

uax_url_email

string

Tokenizes URL-címek és e-mailek egy jogkivonatként. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

whitespace

string

A szóközön lévő szöveget osztja el. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

TokenFilterName

Meghatározza a keresőmotor által támogatott összes jogkivonatszűrő nevét.

Name Típus Description
apostrophe

string

Az aposztróf után az összes karaktert (beleértve magát az aposztrófot is) csíkoz. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html

arabic_normalization

string

Jogkivonatszűrő, amely az arab normalizálót alkalmazza az ortográfia normalizálására. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html

asciifolding

string

Az első 127 ASCII-karakterben nem szereplő betűrendes, numerikus és szimbolikus Unicode-karaktereket (az "Egyszerű latin" Unicode-blokkot) ASCII-ekvivalenssé alakítja, ha léteznek ilyenek. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

cjk_bigram

string

A standard tokenizerből létrehozott CJK-kifejezések bigramjai. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

cjk_width

string

Normalizálja a CJK szélességi különbségeit. A teljes körű ASCII-variánsokat a megfelelő egyszerű latin és félszélességű Katakana-változatokra hajtja a megfelelő Kana-ra. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html

classic

string

Eltávolítja az angol birtokosokat és a betűszókat. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html

common_grams

string

Bigramokat hozhat létre az indexelés során gyakran előforduló kifejezésekhez. Az egyes kifejezések továbbra is indexelve vannak, és a bigramok túl vannak osztva. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

edgeNGram_v2

string

A megadott méret(ek) n grammját hozza létre egy bemeneti jogkivonat elejétől vagy hátuljától kezdve. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

elision

string

Eltávolítja az elisionst. A "l'avion" (a sík) például "avion" (sík) lesz. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

german_normalization

string

Normalizálja a német karaktereket a német2 hógolyó algoritmus heurisztikusai szerint. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html

hindi_normalization

string

Normalizálja a hindi szövegeket, hogy eltávolítson néhány különbséget a helyesírási változatokban. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html

indic_normalization

string

Normalizálja a szöveg Unicode-ábrázolását indiai nyelveken. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html

keyword_repeat

string

Minden bejövő jogkivonatot kétszer bocsát ki, egyszer kulcsszóként, egyszer pedig nem kulcsszóként. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html

kstem

string

Nagy teljesítményű kstem szűrő angol nyelven. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html

length

string

Eltávolítja a túl hosszú vagy túl rövid szavakat. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

limit

string

Korlátozza a jogkivonatok számát az indexelés során. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

lowercase

string

A jogkivonat szövegének normalizálása kisbetűsre. Lásd: https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html

nGram_v2

string

A megadott méret(ek) n grammját hozza létre. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

persian_normalization

string

A perzsa normalizálását alkalmazza. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html

phonetic

string

Jogkivonatok létrehozása fonetikus egyezésekhez. Lásd: https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

porter_stem

string

A Porter-származtatási algoritmussal átalakítja a jogkivonat-adatfolyamot. Lásd: http://tartarus.org/~martin/PorterStemmer

reverse

string

A jogkivonat sztringjének megfordítása. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

scandinavian_folding

string

Folds skandináv karakterek åÅäæÄÆ->a és öÖøØ->o. Emellett megkülönbözteti a dupla magánhangzók aa, ae, ao, oe és oo használatát, így csak az első. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html

scandinavian_normalization

string

Normalizálja a felcserélhető skandináv karakterek használatát. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html

shingle

string

A jogkivonatok kombinációit egyetlen jogkivonatként hozza létre. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

snowball

string

Egy szűrő, amely egy Snowball által létrehozott őslelő használatával szározza a szavakat. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

sorani_normalization

string

Normalizálja a Sorani-szöveg Unicode-ábrázolását. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html

stemmer

string

Nyelvspecifikus eredetszűrő. Lásd: https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

stopwords

string

Eltávolítja a leállító szavakat egy jogkivonat-adatfolyamból. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

trim

string

Levágja a kezdő és a záró szóközt a jogkivonatokból. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html

truncate

string

A kifejezéseket egy adott hosszra csonkolja. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

unique

string

Kiszűri a jogkivonatokat ugyanazzal a szöveggel, mint az előző jogkivonat. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

uppercase

string

A jogkivonat szövegének normalizálása nagybetűsre. Lásd: https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

word_delimiter

string

A szavakat alszavakra osztja, és opcionális átalakításokat hajt végre az alszavas csoportokon.