CozyAI

如何使用CozyChat直连,以及CozyAPI使用


费用计算

<h1>计价方式</h1> <p>输入token:又名 提示、Input token 数 输出token:又名 补全、Output token 数</p> <p>📍 基准价格【最初 gpt3.5 的价格,所以倍率越大,越聪明越贵,倍率越小越省钱越笨】</p> <p>one-api 默认 1$ = 50w tokens,即 0.002$/1k tokens ,把这个叫做基准价格。</p> <p>📍 模型倍率 = 输入价格/基准价格 📍 补全倍率 = 输出价格/输入价格</p> <p>🧮 官方价格公式:输入价格 <em> 输入token数 + 输出价格 </em> 输出token数</p> <p>📌 价格公式: 模型倍率 <em> (提示token数 + 补全token数 </em> 补全倍率) = 模型倍率 <em> 提示token数 + 模型倍率 </em> 补全倍率 <em> 补全token数 = (输入价格/基准价格) </em> 输入token数 + (输出价格/基准价格)<em> 输出token数 = (输入价格 </em> 输入token数 + 输出价格 * 输出token数))/ 基准价格</p> <p>🎯 为什么基准价格为什么定在 1$=50w tokens ?</p> <p>那自然是因为最开始基准价格是参考的 gpt-3.5-turbo 的输入价格 0.002$/1K tokens 随着DeepSeek的大降价影响,OpenAI也跟随着一轮的降价</p> <p>举例子,以 OpenAI 官网输入输出价格计算 2023年的时候,模型还是按照 1k tokens 计费(1k = 1000 个token) <strong>2024年开始,随着模型的涨价以及用量的增多,已经按 M 计费了,1M = 100万 token,所以算基准费率的时候,基本上就是以 M 为单位的,除以2即为模型倍率</strong></p> <h2>补充说明</h2> <p>在自然语言处理中,token是输入文本被分割成的小单元,是语言处理的基本单位,我们可以将其理解为AI拆解语言的“积木块”</p> <p>。以下为你详细介绍其含义与计算方式:</p> <h3>含义</h3> <p>一个token可以是一个单词、一个子词,甚至是一个字符或标点符号,具体取决于模型的分词方式 例如在GPT模型中,&quot;Hello, world!&quot; 可能被分割成 [&#039;Hello&#039;, &#039;,&#039;, &#039;world&#039;, &#039;!&#039;] 几个token3。</p> <h3>计算方式</h3> <p><strong>基于分词器</strong> 模型使用的分词器(Tokenizer)决定了文本如何被拆分成tokens。例如GPT - 3及其后续版本(包括GPT - 4)使用BPE(Byte Pair Encoding)分词算法,该算法会将常见的字符序列合并为单个token,这意味着常见的词或词缀可能被视为单个token,而不常见的词可能会被拆分为多个token</p> <p><strong>英文token计算经验法则</strong> 通常,一个token大约对应于常见英语文本的约4个字符,大约相当于一个单词的0.75个,即1个token≈4个字符,1个token≈0.75个单词。例如 “I love learning new things about machine learning.” 这句话中有9个tokens</p> <p><strong>中文token计算经验法则</strong> 中文字符的token计算并不像英文那样简单,因为中文字符通常会占用1到3个token不等,具体取决于编码和词频等因素。一般情况下,常见单字通常占用1个token,常见词汇可能被编码为单个token,罕见字符或词汇可能会被拆分为多个token。粗略估算,1个token大致等于0.7到1个中文字符。例如“我爱我的祖国!”这句话中有8个tokens</p> <p><strong>精确计算方法</strong> ​​使用Open AI的token计算网页​​:访问https://platform.openai.com/tokenizer 选择相应的模型,输入内容,下方就会显示具体的token数量,以及分词的方式1。</p>

页面列表

ITEM_HTML