mirror of
https://github.com/ggerganov/llama.cpp.git
synced 2025-01-02 14:54:35 +00:00
llama : fix Vulkan whitelist (#11)
This commit is contained in:
parent
ffd0624be2
commit
f88b198885
14
llama.cpp
14
llama.cpp
@ -6352,9 +6352,11 @@ int64_t llama_time_us(void) {
|
||||
return ggml_time_us();
|
||||
}
|
||||
|
||||
struct llama_model * llama_load_model_from_file(
|
||||
const char * path_model,
|
||||
struct llama_context_params params) {
|
||||
static struct llama_model * llama_load_model_from_file_internal(
|
||||
const char * path_model, struct llama_context_params * params_p
|
||||
) {
|
||||
auto & params = *params_p;
|
||||
|
||||
ggml_time_init();
|
||||
|
||||
llama_model * model = new llama_model;
|
||||
@ -6389,6 +6391,10 @@ struct llama_model * llama_load_model_from_file(
|
||||
return model;
|
||||
}
|
||||
|
||||
struct llama_model * llama_load_model_from_file(const char * path_model, struct llama_context_params params) {
|
||||
return llama_load_model_from_file_internal(path_model, ¶ms);
|
||||
}
|
||||
|
||||
void llama_free_model(struct llama_model * model) {
|
||||
delete model;
|
||||
}
|
||||
@ -6559,7 +6565,7 @@ struct llama_context * llama_new_context_with_model(
|
||||
static struct llama_context * llama_init_from_file(
|
||||
const char * path_model,
|
||||
struct llama_context_params params) {
|
||||
struct llama_model * model = llama_load_model_from_file(path_model, params);
|
||||
struct llama_model * model = llama_load_model_from_file_internal(path_model, ¶ms);
|
||||
if (!model) {
|
||||
return nullptr;
|
||||
}
|
||||
|
Loading…
Reference in New Issue
Block a user