mirror of
https://github.com/ggerganov/llama.cpp.git
synced 2025-01-13 12:10:18 +00:00
afa8a9ec9b
* llama : functions -> methods (#11110) * llama : add struct llama_vocab to the API (#11156) ggml-ci * hparams : move vocab params to llama_vocab (#11159) ggml-ci * vocab : more pimpl (#11165) ggml-ci * vocab : minor tokenization optimizations (#11160) ggml-ci Co-authored-by: Diego Devesa <slarengh@gmail.com> * lora : update API names (#11167) ggml-ci * llama : update API names to use correct prefix (#11174) * llama : update API names to use correct prefix ggml-ci * cont ggml-ci * cont ggml-ci * minor [no ci] * vocab : llama_vocab_add_[be]os -> llama_vocab_get_add_[be]os (#11174) ggml-ci * vocab : llama_vocab_n_vocab -> llama_vocab_n_tokens (#11174) ggml-ci --------- Co-authored-by: Diego Devesa <slarengh@gmail.com>
31 lines
900 B
C++
31 lines
900 B
C++
#pragma once
|
|
|
|
#ifndef __cplusplus
|
|
#error "This header is for C++ only"
|
|
#endif
|
|
|
|
#include <memory>
|
|
|
|
#include "llama.h"
|
|
|
|
struct llama_model_deleter {
|
|
void operator()(llama_model * model) { llama_model_free(model); }
|
|
};
|
|
|
|
struct llama_context_deleter {
|
|
void operator()(llama_context * context) { llama_free(context); }
|
|
};
|
|
|
|
struct llama_sampler_deleter {
|
|
void operator()(llama_sampler * sampler) { llama_sampler_free(sampler); }
|
|
};
|
|
|
|
struct llama_adapter_lora_deleter {
|
|
void operator()(llama_adapter_lora * adapter) { llama_adapter_lora_free(adapter); }
|
|
};
|
|
|
|
typedef std::unique_ptr<llama_model, llama_model_deleter> llama_model_ptr;
|
|
typedef std::unique_ptr<llama_context, llama_context_deleter> llama_context_ptr;
|
|
typedef std::unique_ptr<llama_sampler, llama_sampler_deleter> llama_sampler_ptr;
|
|
typedef std::unique_ptr<llama_adapter_lora, llama_adapter_lora_deleter> llama_adapter_lora_ptr;
|