-
Notifications
You must be signed in to change notification settings - Fork 245
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Question,大模型使用问题 #38
Comments
sample_pseudo.txt 使用模型:llm4decompile-9b-v2模型 |
模型使用可以用hf的model.generate,也可以用vllm推理(参考evaluation脚本),或者转换成gguf格式(hf也有朋友已经转换成该格式,我们暂时还没有尝试过)使用ollama/lmstudio推理。demo只是展示最直观简便的方式预处理-输入模型-输出结果。 内容不全应该是outputs = model.generate(**inputs, max_new_tokens=2048)设置。但训练样本大多是2K附近长度,4k长函数估计不及预期。我们在准备更长更强的模型。 |
@albertan017 执行evaluation脚本出现:(https://github.com/albertan017/LLM4Decompile/blob/main/evaluation/run_evaluation_llm4decompile_vllm.py)脚本 是不是我的脚本参数有问题 |
max_new_tokens换成4096也是显示不全。 |
不太能复现你的情况,我尝试了增加max_length,但结果一致。 使用模型:llm4decompile-9b-v2模型
以下是model.generate的结果:
|
这里有什么问题吗?截图中基本复现论文中llm4decompile-9b-v2的结果。 |
模型:llm4decompile-9b-v2
下图是我用demo.py跑出的结果:
是不是只能用这种执行demo.py脚本的方式使用大模型,目前有没有别的方式?
The text was updated successfully, but these errors were encountered: