From f88b19888514a1f2d4f3f0b854cb59dda674c081 Mon Sep 17 00:00:00 2001 From: cebtenzzre Date: Wed, 1 Nov 2023 09:46:15 -0400 Subject: [PATCH] llama : fix Vulkan whitelist (#11) --- llama.cpp | 14 ++++++++++---- 1 file changed, 10 insertions(+), 4 deletions(-) diff --git a/llama.cpp b/llama.cpp index a196b428f..5fc93bd2e 100644 --- a/llama.cpp +++ b/llama.cpp @@ -6352,9 +6352,11 @@ int64_t llama_time_us(void) { return ggml_time_us(); } -struct llama_model * llama_load_model_from_file( - const char * path_model, - struct llama_context_params params) { +static struct llama_model * llama_load_model_from_file_internal( + const char * path_model, struct llama_context_params * params_p +) { + auto & params = *params_p; + ggml_time_init(); llama_model * model = new llama_model; @@ -6389,6 +6391,10 @@ struct llama_model * llama_load_model_from_file( return model; } +struct llama_model * llama_load_model_from_file(const char * path_model, struct llama_context_params params) { + return llama_load_model_from_file_internal(path_model, ¶ms); +} + void llama_free_model(struct llama_model * model) { delete model; } @@ -6559,7 +6565,7 @@ struct llama_context * llama_new_context_with_model( static struct llama_context * llama_init_from_file( const char * path_model, struct llama_context_params params) { - struct llama_model * model = llama_load_model_from_file(path_model, params); + struct llama_model * model = llama_load_model_from_file_internal(path_model, ¶ms); if (!model) { return nullptr; }