mirror of
https://github.com/ggerganov/llama.cpp.git
synced 2025-01-05 00:04:36 +00:00
llama : fix Vulkan whitelist (#11)
This commit is contained in:
parent
ffd0624be2
commit
f88b198885
14
llama.cpp
14
llama.cpp
@ -6352,9 +6352,11 @@ int64_t llama_time_us(void) {
|
|||||||
return ggml_time_us();
|
return ggml_time_us();
|
||||||
}
|
}
|
||||||
|
|
||||||
struct llama_model * llama_load_model_from_file(
|
static struct llama_model * llama_load_model_from_file_internal(
|
||||||
const char * path_model,
|
const char * path_model, struct llama_context_params * params_p
|
||||||
struct llama_context_params params) {
|
) {
|
||||||
|
auto & params = *params_p;
|
||||||
|
|
||||||
ggml_time_init();
|
ggml_time_init();
|
||||||
|
|
||||||
llama_model * model = new llama_model;
|
llama_model * model = new llama_model;
|
||||||
@ -6389,6 +6391,10 @@ struct llama_model * llama_load_model_from_file(
|
|||||||
return model;
|
return model;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
struct llama_model * llama_load_model_from_file(const char * path_model, struct llama_context_params params) {
|
||||||
|
return llama_load_model_from_file_internal(path_model, ¶ms);
|
||||||
|
}
|
||||||
|
|
||||||
void llama_free_model(struct llama_model * model) {
|
void llama_free_model(struct llama_model * model) {
|
||||||
delete model;
|
delete model;
|
||||||
}
|
}
|
||||||
@ -6559,7 +6565,7 @@ struct llama_context * llama_new_context_with_model(
|
|||||||
static struct llama_context * llama_init_from_file(
|
static struct llama_context * llama_init_from_file(
|
||||||
const char * path_model,
|
const char * path_model,
|
||||||
struct llama_context_params params) {
|
struct llama_context_params params) {
|
||||||
struct llama_model * model = llama_load_model_from_file(path_model, params);
|
struct llama_model * model = llama_load_model_from_file_internal(path_model, ¶ms);
|
||||||
if (!model) {
|
if (!model) {
|
||||||
return nullptr;
|
return nullptr;
|
||||||
}
|
}
|
||||||
|
Loading…
Reference in New Issue
Block a user