About 2,160,000 results
Open links in new tab
  1. NLP领域中的token和tokenization到底指的是什么? - 知乎

    tokenization,也叫word segmentation,是一种操作,它按照特定需求,把文本切分成一个字符串序列(其元素一般称为token,或者叫词语)。

  2. Deekseek r1本地部署,14b和32b最小需要多大显存吗? - 知乎

    如题,本地部署的话,14b的用16g显存显卡能用gpu跑吗,32b的用32g显存显卡能用gpu跑吗?

  3. 在中文 NLP 等论文中,应该如何翻译 token 这个词? - 知乎

    Jun 22, 2021 · 想问一下,在中文 NLP 等论文中,应该如何翻译 token 这个词?现在有几种翻译方式:词例、词块。

  4. 求问deepseek出现这种情况怎么办啊? - 知乎

    Jan 31, 2025 · Claude 3.5 Sonnect超过对话长度限制的错误提示. 所以这种情况在目前这个阶段是无法避免的,目前比较通用的办法就是让LLM自己对于这段对话生成一个摘要,然后把这段概 …

  5. deepseek开始会员收费了吗? - 知乎

    如未指定 max_tokens,默认最大输出长度为 4K。请调整 max_tokens 以支持更长的输出。 关于上下文缓存的细节,请参考 DeepSeek 硬盘缓存 。 deepseek-reasoner的输出 token 数包含了 …

  6. 最新M4版本的Mac,尝试本地部署deepseek的话,32b的模型哪个 …

    要知道,训练ai大模型和利用训练好的ai大模型进行推理完全是两码事!大模型训练很消耗算力不假,但是使用训练好的大模型推理,也就是回答用户的问题,其实对于算力要求就很低了。

  7. o1、GPT4、GPT4o 这三个有什么区别? - 知乎

    从模型的基本特性来看,OpenAI o1于2024年上线,包含o1-preview和o1-mini两个版本。. o1-preview推理功能比较完整,在应对复杂任务时游刃有余;o1-mini经济高效,专注编码、数学 …

  8. 视觉Transformer中的token具体指什么,如何理解? - 知乎

    知乎,中文互联网高质量的问答社区和创作者聚集的原创内容平台,于 2011 年 1 月正式上线,以「让人们更好的分享知识、经验和见解,找到自己的解答」为品牌使命。知乎凭借认真、专业 …

  9. 请解释一下这些语料库语言学概念:type,token, lemma,word …

    最容易理解的是token,直接数一共多少个词,显然,这句话共有15个词,即15个tokens。 2. type与token的区别:type强调“不同的单词”,假如句子中有重复的单词,无论重复几次,都只 …

  10. 在使用cursor导入deepseek的API时报错如下所示,该怎么办? - 知乎

    在使用cursor导入deepseek的API时报错如下所示,是本人操作有所不对吗?

Refresh