vLLM (5) - LLMEngine下篇

news2024/11/6 0:20:34

系列文章目录

vLLM (1) - Qwen2推理&部署
vLLM (2) - 架构总览
vLLM (3) - Sequence & SequenceGroup
vLLM (4) - LLMEngine上篇
vLLM (5) - LLMEngine下篇


文章目录

  • 系列文章目录
  • 前言
  • 一、类图
  • 二、LLM._validate_and_add_requests()
    • 1.LLM
    • 2.LLMEngine
    • 3.Scheduler
  • 三、LLM._run_engine()
    • 1.LLM
    • 2.LLMEngine
    • 3.Scheduler
  • 总结


前言

前面一篇已经讲了LLMLLMEngine的初始化阶段,包括设备初始化,模型加载和cache初始化等等,本篇来讲解LLMEngine的生成阶段,功能包括请求的调度以及模型的推理,初步分析调度器Scheduler是怎么工作的,也就是下图的Scheduler部分。
在这里插入图片描述


一、类图

老规矩,上类图。不过,这边放两个类图,对应两个不同的动作,第一个是将请求requests添加到LLMEngine,第二个就是执行LLMEngine,也就是调度使得所有requests尽快得到输出responses,直到结束。

# 类图1:添加请求

+-------------------------+
|           LLM           |
+-------------------------+
| + llm_engine: LLMEngine |
| + generate(): List[RequestOutput] |       # 生成
| - _validate_and_add_requests()    |       # 被self.generate()调用,用于给llm_engine添加requests
| - _run_engine()         |                 # 调度解码
+-------------------------+
            |
            |
            v
+-------------------------+
|        LLMEngine        |
+-------------------------+
| + scheduler: Scheduler  |                 # 调度器
| + add_request()         |                 # 添加request,为LLM._validate_and_requests()调用
| + process_model_input(): LLMInputs |      # 将输入转换成需要的形式,为self.add_request()调用
| - _add_processed_request()         |      # 经过self.process_model_input()处理的输入,使用该方法添加该request
+-------------------------+
            |
            |
            v
+-------------------------+
|        Scheduler        |
+-------------------------+
| + add_seq_group()       |                 # 经过上述处理的输入用来创建了SequenceGroup对象,该对象被添加到了Scheduler中
+-------------------------+
# 类图2:调度和模型推理

+-------------------------+
|           LLM           |
+-------------------------+
| + llm_engine: LLMEngine |
| + generate(): List[RequestOutput] |
| - _validate_and_add_requests()    |
| - _run_engine()         |
+-------------------------+
            |
            |
            v
+-------------------------+
|        LLMEngine        |
+-------------------------+
| + scheduler: Scheduler  |
| + output_processer      |                     # 输出处理器
| + model_executor: GPUExecutor     |           # 执行器
| + has_unfinished_request(): bool  |           # 确认是否存在没有解码完成的请求
| + step(): List[Union[RequestOutput, EmbeddingRequestOutput]] |     # 执行一次解码迭代,返回新的输出
| - _process_model_outputs(): List[Union[RequestOutput, EmbeddingRequestOutput]] |     # 输出后处理
+-------------------------+
            |
            |
            v
+-------------------------+
|        Scheduler        |
+-------------------------+
| + waiting: Deque[SequenceGroup]         |     # waiting队列,等待被调度的请求
| + running: Deque[SequenceGroup]         |     # running队列,当前可被调度解码的请求
| + swapped: Deque[SequenceGroup]         |     # 由于显存压力暂时被交换到cpu内存上的请求
| + block_manager: Union[BlockSpaceManagerV1, BlockSpaceManagerV2, EmbeddingModelBlockSpaceManager] |    # 块管理器,管理逻辑块和物理块的映射
| + add_sequence_group()                  |     # 上面已经说过
| + schedule(): Tuple[List[SequenceGroupMetadata], SchedulerOutputs] |  # 调度waiting、running和swapped,为LLMEngine.step()调用
| - _schedule(): SchedulerOutputs         |     # 为self.schedule()调用
| - _schedule_default(): SchedulerOutputs |     # 为self._schedule()调用,是默认的调度方式
+-------------------------+

二、LLM._validate_and_add_requests()

1.LLM

LLM.generate()方法,针对用户输入,生成文本并返回给用户,如下面代码所示。该方法除了输入输出处理步骤,关键部分交给了self._validate_and_add_requests()self._run_engine()方法。

class LLM:
    def __init__(self, ...):
        # ...
        self.llm_engine = LLMEngine.from_engine_args(
            engine_args, usage_context=UsageContext.LLM_CLASS)
        self.request_counter = Counter()   # 请求计数器

    def generate(
        self,
        prompts: Union[Union[PromptStrictInputs, Sequence[PromptStrictInputs]],
                       Optional[Union[str, List[str]]]] = None,
        sampling_params: Optional[Union[SamplingParams,
                                        Sequence[SamplingParams]]] = None,
        prompt_token_ids: Optional[Union[List[int], List[List[int]]]] = None,
        use_tqdm: bool = True,
        lora_request: Optional[Union[List[LoRARequest], LoRARequest]] = None,
    ) -> List[RequestOutput]:
        """Generates the completions for the input prompts.

        This class automatically batches the given prompts, considering
        the memory constraint. For the best performance, put all of your prompts
        into a single list and pass it to this method.

        Args:
            inputs: A list of inputs to generate completions for.
            sampling_params: The sampling parameters for text generation. If
                None, we use the default sampling parameters. 
                When it is a single value, it is applied to every prompt. 
                When it is a list, the list must have the same length as the 
                prompts and it is paired one by one with the prompt.
            use_tqdm: Whether to use tqdm to display the progress bar.
            lora_request: LoRA request to use for generation, if any.

        Returns:
            A list of `RequestOutput` objects containing the
            generated completions in the same order as the input prompts.

        Note:
            Using ``prompts`` and ``prompt_token_ids`` as keyword parameters is
            considered legacy and may be deprecated in the future. You should
            instead pass them via the ``inputs`` parameter.
        """
        # 本文不涉及embedding_mode,忽略
        if self.llm_engine.model_config.embedding_mode:
            raise ValueError(
                "LLM.generate() is only supported for generation models "
                "(XForCausalLM).")
        
        # 针对不同的输入,做一下数据转换
        if prompt_token_ids is not None:
            inputs = self._convert_v1_inputs(
                prompts=cast(Optional[Union[str, List[str]]], prompts),
                prompt_token_ids=prompt_token_ids,
            )
        else:
            inputs = cast(
                Union[PromptStrictInputs, Sequence[PromptStrictInputs]],
                prompts)
        
        # 采样参数,包括temperature,topk这些
        if sampling_params is None:
            # Use default sampling params.
            sampling_params = SamplingParams()

        # LLMEngine对这些请求的输入做处理,并且为它们创建sequence group,把它们交给调度器scheduler
        self._validate_and_add_requests(
            inputs=inputs,
            params=sampling_params,
            lora_request=lora_request,
        )

        # 使用LLMEngine合理调度,给到用户响应
        outputs = self._run_engine(use_tqdm=use_tqdm)
        return LLMEngine.validate_outputs(outputs, RequestOutput)

    # ------------- self._validate_and_add_requests() -------------
    def _validate_and_add_requests(
        self,
        inputs: Union[PromptStrictInputs, Sequence[PromptStrictInputs]],
        params: Union[SamplingParams, Sequence[SamplingParams], PoolingParams,
                      Sequence[PoolingParams]],
        lora_request: Optional[Union[Sequence[LoRARequest], LoRARequest]],
    ) -> None:
        if isinstance(inputs, (str, dict)):
            # Convert a single prompt to a list.
            inputs = [inputs]

        num_requests = len(inputs)

        # 采样个数应该和输入的prompt个数一致
        if isinstance(params, list) and len(params) != num_requests:
            raise ValueError("The lengths of prompts and params "
                             "must be the same.")
        
        # 本文不涉及,忽略
        if isinstance(lora_request,
                      list) and len(lora_request) != num_requests:
            raise ValueError("The lengths of prompts and lora_request "
                             "must be the same.")

        # 为llm_engine添加请求
        for i, request_inputs in enumerate(inputs):
            self._add_request(
                request_inputs,
                params[i] if isinstance(params, Sequence) else params,
                lora_request=lora_request[i] if isinstance(
                    lora_request, Sequence) else lora_request,
            )

    def _add_request(
        self,
        inputs: PromptInputs,
        params: Union[SamplingParams, PoolingParams],
        lora_request: Optional[Union[List[LoRARequest], LoRARequest]] = None,
    ) -> None:
        # 当前请求id
        request_id = str(next(self.request_counter))
        self.llm_engine.add_request(request_id,
                                    inputs,
                                    params,
                                    lora_request=lora_request)

2.LLMEngine

LLM._validate_and_add_requests():(验证和)添加请求。具体来讲,当请求到来,使用LLMEngine.process_model_inputs()对原始的输入做些处理,在此基础上创建SequenceGroup,以便scheduler调度,这部分由LLMEngine来完成,如下面代码所示:

class LLMEngine
    # ...

    def add_request(
        self,
        request_id: str,          # 请求id
        inputs: PromptInputs,     # 输入
        params: Union[SamplingParams, PoolingParams],  # 采样参数
        arrival_time: Optional[float] = None,          # 请求抵达时间
        lora_request: Optional[LoRARequest] = None,
    ) -> None:
    
        """将请求添加到这个engine的请求池中,
        当使用engine.step()时,scheduler会进行调度,去处理这个请求
        """
        # lora相关,忽略
        if lora_request is not None and not self.lora_config:
            raise ValueError(f"Got lora_request {lora_request} but LoRA is "
                             "not enabled!")
        if arrival_time is None:
            arrival_time = time.time()

        # 处理输入,将输入数据转换成LLMInput的实例
        processed_inputs = self.process_model_inputs(request_id=request_id,
                                                     inputs=inputs,
                                                     lora_request=lora_request)
        # 根据处理过的输入添加请求,也就是把sequence group交给scheduler
        self._add_processed_request(
            request_id=request_id,
            processed_inputs=processed_inputs,
            params=params,
            arrival_time=arrival_time,
            lora_request=lora_request,
        )
    
    def _add_processed_request(
        self,
        request_id: str,
        processed_inputs: LLMInputs,
        params: Union[SamplingParams, PoolingParams],
        arrival_time: float,
        lora_request: Optional[LoRARequest],
    ) -> None:
        """ 针对每一个request,向调度器中添加sequence group """
        # 根据输入创建sequence
        block_size = self.cache_config.block_size  # 默认16
        seq_id = next(self.seq_counter)            
        eos_token_id = self._get_eos_token_id(lora_request)

        seq = Sequence(seq_id, processed_inputs, block_size, eos_token_id,
                       lora_request)

        # 创建SequenceGroup
        if isinstance(params, SamplingParams):   # 正常我们都是采样,走这个分支
            seq_group = self._create_sequence_group_with_sampling(
                request_id,
                seq,
                params,
                arrival_time=arrival_time,
                lora_request=lora_request,
            )
        elif isinstance(params, PoolingParams):
            seq_group = self._create_sequence_group_with_pooling(
                request_id,
                seq,
                params,
                arrival_time=arrival_time,
                lora_request=lora_request,
            )
        else:
            raise ValueError(
                "Either SamplingParams or PoolingParams must be provided.")

        # 向调度器中添加sequence group,添加很简单,后面会看到
        self.scheduler.add_seq_group(seq_group)

    def process_model_inputs(
        self,
        request_id: str,
        inputs: PromptInputs,
        lora_request: Optional[LoRARequest] = None,
    ) -> LLMInputs:
        # 将PromptInputs转成LLMInputs
        if isinstance(inputs, str):
            inputs = {"prompt": inputs}

        # 获取输入和tokens
        if "prompt_token_ids" not in inputs:
            tokenizer = self.get_tokenizer_group("prompts must be None if skip_tokenizer_init is True")

            prompt_token_ids = tokenizer.encode(request_id=request_id,
                                                prompt=inputs["prompt"],
                                                lora_request=lora_request)
        else:
            prompt_token_ids = inputs["prompt_token_ids"]

        return LLMInputs(prompt_token_ids=prompt_token_ids,  # 只简单包含这3项数据
                         prompt=inputs.get("prompt"),
                         multi_modal_data=inputs.get("multi_modal_data"))

3.Scheduler

下面代码展示了Scheduler.add_seq_group()方法,非常简单,只是将seq_group添加到self.waiting中,等待被调度。

class Scheduler:
    # ...
    def add_seq_group(self, seq_group: SequenceGroup) -> None:
        # Add sequence groups to the waiting queue.
        self.waiting.append(seq_group)

至此,所有的requests已经被添加。

三、LLM._run_engine()

1.LLM

LLM._run_engine()代码如下所示,它的使命就是使用self.llm_engine.step()方法,不断调度队列中的请求,并生成新的token直至所有的请求全部响应完成。step表示执行一步,或者执行一个迭代,也就是生成下一个token,经过多次的step,一些较短的序列就采样完成了,这时候self.llm_engine中就出现了越来越多的finished_requests,直到所有请求全部完成,那就可以返回输出结果了。

class LLM:
    # ...
    
    def _run_engine(
            self, *, use_tqdm: bool
    ) -> List[Union[RequestOutput, EmbeddingRequestOutput]]:
        """
        执行engine,根据策略(requests优先级)调度解码
        """
        # 忽略了无关代码
        outputs: List[Union[RequestOutput, EmbeddingRequestOutput]] = []  # 输出
        
        while self.llm_engine.has_unfinished_requests():
            # 只要还存在未解码结束的请求,就要执行一次解码迭代,生成下一个token
            step_outputs = self.llm_engine.step()
            for output in step_outputs:
                if output.finished:
                    outputs.append(output)

        # 按照request_id排序
        return sorted(outputs, key=lambda x: int(x.request_id))

2.LLMEngine

但是,我们目前还有个问题没有考虑,那就是调度。一次能够同时处理的请求数量是有限的,受到最大可处理请求数量,以及可以用显存等因素的制约。举一个最简单的例子,我给到vllm的请求有300个,但是vllm能同时处理的请求是256个,这是剩余的44个就只能在外边等着。等self.llm_engine.step()完成多个迭代,假设有10个请求完成了,那我们应该怎么办?显然,应该清理掉这些finished_requests,从44个嗷嗷待哺的requests中选取前面10个,和unfinished_requests放一起处理。因此,LLMEngine.step()(如下面代码所示)应该先执行self.scheduler.schedule()完成这一个迭代的调度,然后执行模型前向过程self.model_executor.execute_model()

class LLMEngine
    # ...
    
    def step(self) -> List[Union[RequestOutput, EmbeddingRequestOutput]]:
        """执行一次解码decoding迭代,返回新生成的结果"""
        
        # 调度 在下一个迭代中需要被执行序列,以及需要被swapped in/out/copy的token blocks
        seq_group_metadata_list, scheduler_outputs = self.scheduler.schedule()

        # 调度完之后使用model_executor执行模型,处理这些请求
        if not scheduler_outputs.is_empty():
            execute_model_req = ExecuteModelRequest(
                seq_group_metadata_list=seq_group_metadata_list,
                blocks_to_swap_in=scheduler_outputs.blocks_to_swap_in,
                blocks_to_swap_out=scheduler_outputs.blocks_to_swap_out,
                blocks_to_copy=scheduler_outputs.blocks_to_copy,
                num_lookahead_slots=scheduler_outputs.num_lookahead_slots,
                running_queue_size=scheduler_outputs.running_queue_size,
            )
            output = self.model_executor.execute_model(
                execute_model_req=execute_model_req)
        else:
            output = []

        # 对模型输出做处理
        request_outputs = self._process_model_outputs(
            output, scheduler_outputs.scheduled_seq_groups,
            scheduler_outputs.ignored_seq_groups, seq_group_metadata_list)

        if not request_outputs:
            # Stop the execute model loop in parallel workers until there are
            # more requests to process. This avoids waiting indefinitely in
            # torch.distributed ops which may otherwise timeout, and unblocks
            # the RPC thread in the workers so that they can process any other
            # queued control plane messages, such as add/remove lora adapters.
            self.model_executor.stop_remote_worker_execution_loop()

        return request_outputs

3.Scheduler

终于来到了调度环节,代码如下所示。为了不影响我们分析最关键的部分,先把Scheduler.schedule()方法中的其他代码忽略掉了。关注的路线是:self.schedule()->self._schedule()-> self._schedule_default()self._schedule_default()部分代码如下所示,我们来仔细分析一下这个方法。

  1. 初始化调度预算:使用SchedulingBudget()创建预算budget,预算限制为token_budgetmax_num_seqs
  2. 更新调度预算:self.running是上一次LLMEngine.step()过后还处于RUNNING状态的这些sequence_groups构成的队列,这部分理应占用一部分预算,budget.add_num_seqs()将j记录/更新预算中已被占用的sequence个数;
  3. 初始化本次调度的结果:比如通过本次调度,我们在self.waiting中依然会有一些sequence_groups处于等待状态,那么我们把它称为remaining_waiting,当前将self.waiting赋值给它;同时self.waiting中另一部分是被调度成功的,也就是可以喂给模型做生成了,那么这部分调度结果被初始化为代码中的prefills;同理,running_scheduled被调度来执行下一次step的,remaining_running则是需要排队等下一轮安排;
  4. 调度self.waiting:使用self._schedule_prefills()进行调度,它做的事情是根据预算等信息确认self.waiting中有多少可以被调度的sequence_groups,并将它们的下面的sequences状态由WAITING改为RUNNING(具体代码不在这展开);同时self.swapped的优先级是比self.waiting更高的,因此有self.swapped的时候就不会调度self.waiting
  5. 调度self.runningself.swapped:调度的条件是len(prefills.seq_groups) == 0vllm会同时考虑调度预算budget以及显存块blocks的制约(这两者是不一样的,后续文章会讲到),尽可能多的调度waiting队列中的请求;当无法调度更多的请求时,比如达到了设置的处理请求上限256条时,开始调度self.runnningself.swappedself.runnningself.swapped都处于decode阶段,只是self.runninggpu上,而self.swappedcpu上等待回归,self.running优先级高于self.swapped
  6. 更新调度后的self.waitingself.runningself.swapped,它们有多种不同的组成部分,举例来说,self.waiting不仅源于remaining_waiting,而且来源于running_scheduled.preempted,它表示在running_scheduled中优先级较低,且由于显存压力被挤下来(被占用)的sequence_groups,他们需要在下一个step中被从头计算的,所以它们应该添加到self.waiting中;并且,由于它们是在本次running调度中挤下来的,怎么说也比remaining_waiting优先级高,所以这部分添加使用self.waiting.extendleft();其余各项可以类比分析一下;
  7. 返回SchedulerOutputs对象。
class Schedule:
    def __init(self, ...):
        # ...
        # 在WAITING状态的seq_groups,包含了新的prefill或者preempted请求
        self.waiting: Deque[SequenceGroup] = deque()
        # 在RUNNING状态的seq_groups,包含了decode请求
        self.running: Deque[SequenceGroup] = deque()
        # 在SWAPPED状态的seq_groups,包含了被swapped out的decode请求
        self.swapped: Deque[SequenceGroup] = deque()
    
    def schedule(self) -> Tuple[List[SequenceGroupMetadata], SchedulerOutputs]:
        # 调度sequence groups
        scheduler_outputs = self._schedule()
        # 创建输入数据(给模型)
        seq_group_metadata_list: List[SequenceGroupMetadata] = []
        
        # 其他代码,太长,先忽略 ...
        return seq_group_metadata_list, scheduler_outputs

    def _schedule(self) -> SchedulerOutputs:
        """调度队列中的请求"""
        if self.scheduler_config.chunked_prefill_enabled:
            return self._schedule_chunked_prefill()
        else:
            # 默认走这一条
            return self._schedule_default()

    def _schedule_default(self) -> SchedulerOutputs:
        """尽可能多的预填充的请求组成一个batch,调度来解码;
        如果显存不够,可以将部分解码请求切换到swapped或者preempted状态
        """
        # 1) 根据最大的序列数量和最大的总token数量确定调度预算
        # 随着调度的进行,SchedulingBudget会记录seq和token的使用量
        budget = SchedulingBudget(
            token_budget=self.scheduler_config.max_num_batched_tokens,
            max_num_seqs=self.scheduler_config.max_num_seqs,
        )
        # 2) 调度处于running状态的序列(不超过最大序列数量)
        for seq_group in self.running:
            budget.add_num_seqs(seq_group.request_id,
                                seq_group.get_max_num_running_seqs())
        # lora相关,先忽略
        curr_loras = set(
            seq_group.lora_int_id for seq_group in self.running
            if seq_group.lora_int_id > 0) if self.lora_enabled else None

        # 3) 不同状态的sequence_groups,并初始化它们调度的output(其实就是表示当前的n条seq被调度了,没什么东西)
        # "remaining_xxx"表示经过本轮调度依旧保持为"xxx"状态的部分
        remaining_waiting, prefills = (self.waiting,
                                       SchedulerPrefillOutputs.create_empty())
        remaining_running, running_scheduled = (
            self.running, SchedulerRunningOutputs.create_empty())
        remaining_swapped, swapped_in = (
            self.swapped, SchedulerSwappedInOutputs.create_empty())

        # If any requests are swapped, prioritized swapped requests.
        if not self.swapped:
            # 4) 没有swapped请求时,调度处于prefill阶段的seq_groups
            remaining_waiting, prefills = self._schedule_prefills(
                self.waiting, budget, curr_loras, enable_chunking=False)

        # 调度策略:first come first serve
        fcfs_policy = PolicyFactory.get_policy(policy_name="fcfs")
        # Don't schedule decodes if prefills are scheduled.
        # NOTE: If `_schedule_prefills` doesn't enable chunking, self.running
        # only contains decode requests, not chunked prefills.

        # 5) 调度running和swapped
        if len(prefills.seq_groups) == 0:
            # 没有prefill被调度时,调度running (decode)
            remaining_running, running_scheduled = self._schedule_running(
                self.running,
                budget,
                curr_loras,
                fcfs_policy,
                enable_chunking=False)

            # If any sequence group is preempted, do not swap in any sequence
            # group. because it means there's no slot for new running requests.
            if len(running_scheduled.preempted) + len(
                    running_scheduled.swapped_out) == 0:
                # 当不存在preempted和swapped_out的时候,才有可能安排swapped (in)的调度
                remaining_swapped, swapped_in = self._schedule_swapped(
                    self.swapped, budget, curr_loras, fcfs_policy)

        # 确认预算是否够用
        assert (budget.num_batched_tokens <=
                self.scheduler_config.max_num_batched_tokens)
        assert budget.num_curr_seqs <= self.scheduler_config.max_num_seqs

        # 更新waiting请求
        self.waiting = remaining_waiting
        # running被抢占的放到waiting前面,优先级更高
        self.waiting.extendleft(running_scheduled.preempted)
        
        # 更新running请求
        self.running = remaining_running
        # 预填充部分的添加到running
        self.running.extend([s.seq_group for s in prefills.seq_groups])
        # running中处于解码阶段的
        self.running.extend(
            [s.seq_group for s in running_scheduled.decode_seq_groups])
        # 将要被swap in,并且在解码阶段
        self.running.extend(
            [s.seq_group for s in swapped_in.decode_seq_groups])
        
        # 更新swapped请求
        self.swapped = remaining_swapped
        # running被swap out的
        self.swapped.extend(running_scheduled.swapped_out)
        # 由于优先级较低,在显存不足的情况下,暂时被其他优先级高的请求(生成新token)抢占的请求
        preempted = (len(running_scheduled.preempted) +
                     len(running_scheduled.swapped_out))

        # There should be no prefill from running queue because this policy
        # doesn't allow chunked prefills.
        assert len(running_scheduled.prefill_seq_groups) == 0
        assert len(swapped_in.prefill_seq_groups) == 0
        return SchedulerOutputs(
            scheduled_seq_groups=(prefills.seq_groups +
                                  running_scheduled.decode_seq_groups +
                                  swapped_in.decode_seq_groups),
            num_prefill_groups=len(prefills.seq_groups),
            num_batched_tokens=budget.num_batched_tokens,
            blocks_to_swap_in=swapped_in.blocks_to_swap_in,
            blocks_to_swap_out=running_scheduled.blocks_to_swap_out,
            blocks_to_copy=running_scheduled.blocks_to_copy +
            swapped_in.blocks_to_copy,
            ignored_seq_groups=prefills.ignored_seq_groups +
            swapped_in.infeasible_seq_groups,
            num_lookahead_slots=running_scheduled.num_lookahead_slots,
            running_queue_size=len(self.running),
            preempted=preempted,
        )

至此,我们对LLMEngine的生成阶段有了初步的了解,尤其是Scheduler对用户请求的调度。然而有一些细节我们还不清楚,比如我们没有展开讲解self._schedule_prefills()等方法,也未涉及调度过程中block_manager的操作,这些将放到下一篇给出详细的回答。


总结

本篇介绍了LLM._validate_and_add_requests()LLM._run_engine()这两个方法。尤其是后者,其中调度器Scheduler扮演了非常重要的角色,在调度预算和显存限制下,按照指定策略调度了用户请求,进行推理。由于篇幅关系,对Scheduler更加细致的分析会在下一篇展开。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2114687.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

颠覆你的开发模式:敏捷思维带来的无限可能

敏捷软件开发作为现代软件工程的重要方法论&#xff0c;强调快速响应变化和持续交付价值。通过灵活的开发模式和高效的团队协作&#xff0c;敏捷方法在应对动态变化和不确定性方面表现出色。本文将结合学习和分析&#xff0c;探讨系统变化对敏捷开发的影响、业务与技术的对齐以…

axure之变量

一、设置我们的第一个变量 1、点击axure上方设置一个全局变量a 3 2、加入按钮、文本框元件点击按钮文档框展示变量值。 交互选择【单击时】【设置文本】再点击函数。 点击插入变量和函数直接选择刚刚定义的全局变量&#xff0c;也可以直接手动写入函数(注意写入格式。) 这…

sheng的学习笔记-AI-概率图,隐马尔可夫HMM,马尔可夫随机场MRF,条件随机场CRF

ai目录&#xff1a;sheng的学习笔记-AI目录-CSDN博客 贝叶斯分类&#xff1a; https://blog.csdn.net/coldstarry/article/details/138861587 基础知识 概率图模型 概率图模型(probabilistic graphical model)是一类用图来表达变量相关关系的概率模型。 它以图为表示工具&…

mac|安装nginx

使用homebrew安装nginx brew install nginx 注意&#xff1a; 一般来说nginx会被默认安装在/usr/local/cellar,打开【访达】&#xff0c;前往【电脑】 由于/usr是隐藏文件&#xff0c;无法直接查看。通过 shiftommand. 即可查看 可以看到我的不在这里&#xff08;我也不知道…

【ruoyi框架】开箱即用的管理系统框架

目录 1.简介 2.快速开始 2.1.仓库 2.2.环境初始化 3.使用介绍 3.1.权限与组件 3.2.开发与测试 1.简介 管理系统是当前软件市场上最常见的软件&#xff0c;管理系统在功能和界面上都有大量通用的点。 功能上通用的点包括但不限于&#xff1a; 角色、权限管理菜单管理鉴…

智能制造中,叉车防撞报警系统的数字化管理

由于叉车的价格便宜&#xff0c;装载能力强等特点&#xff0c;在工厂得到了广泛地使用&#xff0c;极大提升了仓库物料的流转效率。但叉车在使用当中&#xff0c;也存在一些风险&#xff0c;甚至带来一些事故。另外一个方面&#xff0c;如何对仓库进行有效地数字化管理&#xf…

智能电源控制箱

在数字化浪潮的推动下&#xff0c;智能化管理已成为各行各业转型升级的重要方向。作为这一趋势下的佼佼者&#xff0c;《智能电源控制箱》凭借其卓越的性能和便捷的操作&#xff0c;正逐步成为网络通信、监控安防等领域不可或缺的关键设备。本文将详细介绍这款集智能网络传输、…

[论文笔记]QLoRA: Efficient Finetuning of Quantized LLMs

引言 今天带来LoRA的量化版论文笔记——QLoRA: Efficient Finetuning of Quantized LLMs 为了简单&#xff0c;下文中以翻译的口吻记录&#xff0c;比如替换"作者"为"我们"。 我们提出了QLoRA&#xff0c;一种高效的微调方法&#xff0c;它在减少内存使用…

[论文笔记] t-SNE数据可视化

pip install matplotlib scikit-learn sentence-transformers数据分类别可视化 t-SNE算法将高维数据映射到2D空间后的坐标。 t-SNE是一种用于数据降维和可视化的技术,它的作用是将原本在高维空间中的复杂数据压缩到低维空间,同时尽可能保留数据点之间的距离关系。 举例: h…

Pr:首选项 - 颜色

Pr菜单&#xff1a;编辑/首选项 Edit/Preferences Premiere Pro 首选项中的“颜色” Color选项卡可以设置与显示颜色相关的选项。 若启用“显示色彩管理”&#xff0c;可以保证在不同显示设备上保持颜色一致性&#xff0c;它只影响显示效果&#xff0c;不会更改剪辑本身的颜色数…

C语言之预处理详情

目录 前言1.预定义符号2.#define定义常量3.#define定义宏4.带有副作用的宏参数5.宏替换的规则6.宏和函数的对比7.#和##运算符7.1 #运算符7.2 ##运算符 8.命名约定9.undef10.命令行指令11.条件编译12.头文件的包含12.1 头文件包含方式12.1.1 本地头文件包含12.1.2 库文件包含 12…

还不懂BIO,NIO,AIO吗

BIO&#xff08;Blocking I/O&#xff09;、NIO&#xff08;Non-blocking I/O&#xff09;和 AIO&#xff08;Asynchronous I/O&#xff09;是 Java 中三种不同的 I/O 模型&#xff0c;主要用于处理输入 / 输出操作。 一、BIO&#xff08;Blocking I/O&#xff09; 定义与工作原…

主窗口的设计与开发(二)

主窗口的设计与开发&#xff08;二&#xff09; 前言 在上一集当中&#xff0c;我们完成了主窗口的初始化&#xff0c;主窗口包括了左中右三个区域。我们还完成了对左窗口的初始化&#xff0c;左窗口包括了用户头像、会话标签页按钮、好友标签页按钮以及好友申请标签页按钮。对…

JavaFX基本控件-TextField

JavaFX基本控件-TextField 常用属性textpromptTextpaddingalignmentwidthheighttooltipbordereditabledisablevisible 格式化整形格式化 实现方式Java实现fxml实现 常用属性 text 设置文本内容 textField.setText("测试数据");promptText 设置文本字段的提示文本&am…

django ubuntu 踩坑集锦

目录 1 ubantu mysql查看表结构2 导入同级目录文件出现未解析引用错误3 第三方包——tinymce富文本编辑器4 verbose_name,verbose_name_plural5 搜索路径的添加6 auto_now_add 和 auto_now7 auth_user的表结构8 在 Django 中定义 ForeignKey 字段时&#xff0c;必须指定 on_del…

共享内存喜欢沙县小吃

旭日新摊子好耶&#xff01; 系统从0开始搭建过通信方案&#xff0c;本地通信方案的代码&#xff1a;System V IPC 里面有共享内存、消息队列、信号量 共享内存 原理 两个进程有自己的内存区域划分&#xff0c;共享内存被创建出的时候是归属操作系统的&#xff0c;还是通过…

STM32G474内部温度传感器的使用

目录 概述 1 认识STM32G474内部温度传感器 1.1 温度传感器概述 1.2 温度传感器实现原理 1.3 读取温度方法 1.4 ADC模块上温度sensor的位置框图 2 STM32Cube创建项目 2.1 配置参数 2.2 STM32Cube生成的软件架构 3 温度数据算法实现 3.1 算法介绍 3.2 源代码 概述…

【H2O2|全栈】关于HTML(1)认识HTML

HTML相关知识 目录 前言 准备工作 WEB前端是什么&#xff1f; HTML是什么&#xff1f; 如何运行HTML文件&#xff1f; 标签 概念 分类 双标签和单标签 行内标签和块标签 HTML文档结构 预告和回顾 UI设计相关 Markdown | Md文档相关 项目合作管理相关 后话 前…

顶踩Emlog插件源码

源码介绍 顶踩Emlog插件源码 前些天看到小刀娱乐网的文章页面有了一些变化&#xff0c;那就是增加了一个有价值/无价值的顶踩按钮。 样式也是非常的好看 再加上两个表情包是非常的有趣。 写到了Emlog系统&#xff0c;效果如上图。 如何使用&#xff1a; 需要在echo_log.…

Python 算法交易实验88 QTV200日常推进-关于继续前进的思考

说明 念念不忘,必有回响 最初的时候&#xff0c;完全不了解架构方面的东西。后来决定要搞好这一块的时候&#xff0c;也就是不断的琢磨&#xff0c;到现在4年的时间&#xff0c;改变已经非常大了。现在习以为常的&#xff0c;都是当初梦寐以求的&#xff0c;而且在可见的未来 &…