在vllm中,使用llm.generate()返回的List[RequestOutput]里面有什么参数?如何获得回答的token表示?
在使用vllm的时候,需要对输出做一个token数量的统计,但是在一般的示例里面都是如下摸样:fromvllmimportLLM,SamplingParams#Sampleprompts.prompts=["Hello,mynameis","ThepresidentoftheUnitedStatesis","ThecapitalofFranceis","ThefutureofAIis",]#Cre