谷歌月Tokens消耗量领跑全球了:1300000000000000(别数了是千万亿)
据谷歌"宣传委员"Logan Kilpatrick透露,这一数据来自谷歌对旗下各平台的内部统计。 假如参考DeepSeek API文档中给出的标准: 那么在中文世界里,1.3千万亿Tokens约2.17千万亿汉字。换算成对话量,一本《红楼梦》的字数在70-80万左右,相当于一个月内所有人和 谷歌AI聊了近30亿本《红楼梦》的内容。 1 个英文字符 ≈ 0.3 个 Token 1 个中文字符 ≈ 0.6 个 Token 更可怕的是,假如按照谷歌最近几个月的增速来看,这个数字再往下恐怕…… 一水 发自 凹非寺 量子位 | 公众号 QbitAI 1300000000000000! 1.3千万亿,一个令人咂舌的数字。这就是 谷歌每月处理的Tokens用量 。 而且需要注意的是,不止谷歌看重"Tokens消耗量"这一指标,OpenAI最近也首次公布了30家Tokens消耗破万亿的"大金主"。 | | | | | OpenAl Customers who have used 1T+ Tokens | | | | | --- | --- | --- | --- | --- | --- | --- | --- | | Num ...