mirror of
https://github.com/ggerganov/llama.cpp.git
synced 2024-12-26 11:24:35 +00:00
llama : fix bpe tokenize from byte (#2889)
This commit is contained in:
parent
d9151e6f57
commit
3730134776
@ -3366,10 +3366,16 @@ struct llm_tokenizer_bpe {
|
|||||||
std::string byte_str(1, *j);
|
std::string byte_str(1, *j);
|
||||||
auto token_multibyte = vocab.token_to_id.find(byte_str);
|
auto token_multibyte = vocab.token_to_id.find(byte_str);
|
||||||
if (token_multibyte == vocab.token_to_id.end()) {
|
if (token_multibyte == vocab.token_to_id.end()) {
|
||||||
|
try {
|
||||||
|
llama_token token_byte = llama_byte_to_token(vocab, *j);
|
||||||
|
output.push_back(token_byte);
|
||||||
|
} catch (const std::out_of_range & err) {
|
||||||
fprintf(stderr,"ERROR: byte not found in vocab: '%s'\n", byte_str.c_str());
|
fprintf(stderr,"ERROR: byte not found in vocab: '%s'\n", byte_str.c_str());
|
||||||
}
|
}
|
||||||
|
} else {
|
||||||
output.push_back((*token_multibyte).second);
|
output.push_back((*token_multibyte).second);
|
||||||
}
|
}
|
||||||
|
}
|
||||||
} else {
|
} else {
|
||||||
output.push_back((*token).second);
|
output.push_back((*token).second);
|
||||||
}
|
}
|
||||||
|
Loading…
Reference in New Issue
Block a user