内存消耗量与生成token数成正比 。
512个token(约380个英文单词)需要消耗512MB的空间 。
作者简介
这篇文章的作者来自开源人工智能框架Ray的开发公司Anyscale 。
主要贡献者是google前首席工程师Waleed Kadous 。
他也曾担任Uber CTO办公室工程战略负责人 。
其中一位华人合作者是Google前员工Huaiwei Sun 。
他来自江苏昆山,本科毕业于上海交通大学工业设计专业 。
期间,他参加了耶鲁大学summer school并取得了满绩 。
此后他取得了佐治亚理工学院硕士学位,研究方向为人机交互 。
此外还有其他作者也参与了这篇文章的工作,未来也可能有更多人加入 。
参考链接:
[1]https://github.com/ray-project/llm-numbers
[2]https://www.linkedin.com/in/scottsun94/
— 完—
推荐阅读
- 2023 Vue开发者的React入门
- 女生必备健身计划,帮你穿衣显瘦
- 羊驼系列大模型和ChatGPT差多少?详细测评后,我沉默了
- 一文读懂什么是AIGC、ChatGPT、大模型
- 雪梨膏怎么熬制 防秋燥必备的秋梨膏熬制小技巧
- 大模型赛道正“热”:卷场景、卷芯片、卷人才
- AI大模型的未来市场在中国
- “AI的商业化路线已经清晰” 2023京东“赶考”千亿级产业大模型
- 鱼龙混杂大模型:谁在蹭热点?谁有真实力?
- MathGPT来了!专攻数学大模型,解题讲题两手抓
