mirror of
https://github.com/ggerganov/llama.cpp.git
synced 2024-12-27 03:44:35 +00:00
938943cdbf
* llama : move sampling code into llama-sampling ggml-ci * llama : move grammar code into llama-grammar ggml-ci * cont ggml-ci * cont : pre-fetch rules * cont ggml-ci * llama : deprecate llama_sample_grammar * llama : move tokenizers into llama-vocab ggml-ci * make : update llama.cpp deps [no ci] * llama : redirect external API to internal APIs ggml-ci * llama : suffix the internal APIs with "_impl" ggml-ci * llama : clean-up
57 lines
2.6 KiB
C++
57 lines
2.6 KiB
C++
#pragma once
|
|
|
|
#include "llama-impl.h"
|
|
|
|
struct llama_sampling {
|
|
llama_sampling(int32_t n_vocab) : n_vocab(n_vocab) {}
|
|
|
|
std::mt19937 rng;
|
|
|
|
int32_t n_vocab = 0;
|
|
|
|
mutable int64_t t_sample_us = 0;
|
|
mutable int32_t n_sample = 0;
|
|
|
|
void reset_timings() const {
|
|
t_sample_us = 0;
|
|
n_sample = 0;
|
|
}
|
|
};
|
|
|
|
//
|
|
// internal API
|
|
//
|
|
|
|
void llama_set_rng_seed_impl(struct llama_sampling * smpl, uint32_t seed);
|
|
|
|
void llama_sample_softmax_impl (struct llama_sampling * smpl, llama_token_data_array * candidates);
|
|
void llama_sample_top_k_impl (struct llama_sampling * smpl, llama_token_data_array * candidates, int32_t k, size_t min_keep);
|
|
void llama_sample_top_p_impl (struct llama_sampling * smpl, llama_token_data_array * candidates, float p, size_t min_keep);
|
|
void llama_sample_min_p_impl (struct llama_sampling * smpl, llama_token_data_array * candidates, float p, size_t min_keep);
|
|
void llama_sample_tail_free_impl(struct llama_sampling * smpl, llama_token_data_array * candidates, float z, size_t min_keep);
|
|
void llama_sample_typical_impl (struct llama_sampling * smpl, llama_token_data_array * candidates, float p, size_t min_keep);
|
|
void llama_sample_entropy_impl (struct llama_sampling * smpl, llama_token_data_array * candidates, float min_temp, float max_temp, float exponent_val);
|
|
void llama_sample_temp_impl (struct llama_sampling * smpl, llama_token_data_array * candidates, float temp);
|
|
|
|
void llama_sample_repetition_penalties_impl(
|
|
struct llama_sampling * smpl,
|
|
llama_token_data_array * candidates,
|
|
const llama_token * last_tokens,
|
|
size_t penalty_last_n,
|
|
float penalty_repeat,
|
|
float penalty_freq,
|
|
float penalty_present);
|
|
|
|
void llama_sample_apply_guidance_impl(
|
|
struct llama_sampling * smpl,
|
|
float * logits,
|
|
float * logits_guidance,
|
|
float scale);
|
|
|
|
llama_token llama_sample_token_mirostat_impl (struct llama_sampling * smpl, llama_token_data_array * candidates, float tau, float eta, int32_t m, float * mu);
|
|
llama_token llama_sample_token_mirostat_v2_impl(struct llama_sampling * smpl, llama_token_data_array * candidates, float tau, float eta, float * mu);
|
|
llama_token llama_sample_token_greedy_impl (struct llama_sampling * smpl, llama_token_data_array * candidates);
|
|
llama_token llama_sample_token_with_rng_impl (struct llama_sampling * smpl, llama_token_data_array * candidates, std::mt19937 & rng);
|
|
llama_token llama_sample_token_impl (struct llama_sampling * smpl, llama_token_data_array * candidates);
|
|
|