gptq模块下面的qwen2和llama我看都实现了对应的 Quantized* 类型,但是量化的时候,没有使用,请问这个是正常的么,只在evalmodel 和 test model里面有使用,
gptq模块下面的qwen2和llama我看都实现了对应的 Quantized* 类型,但是量化的时候,没有使用,请问这个是正常的么,只在evalmodel 和 test model里面有使用,