大模型开发者必备手册:这些数字值得记住 | GitHub 1200星( 二 )


内存消耗量与生成token数成正比 。
512个token(约380个英文单词)需要消耗512MB的空间 。
作者简介
这篇文章的作者来自开源人工智能框架Ray的开发公司Anyscale 。
主要贡献者是google前首席工程师Waleed Kadous 。
他也曾担任Uber CTO办公室工程战略负责人 。
其中一位华人合作者是Google前员工Huaiwei Sun 。
他来自江苏昆山,本科毕业于上海交通大学工业设计专业 。
期间,他参加了耶鲁大学summer school并取得了满绩 。
此后他取得了佐治亚理工学院硕士学位,研究方向为人机交互 。
此外还有其他作者也参与了这篇文章的工作,未来也可能有更多人加入 。
参考链接:
[1]https://github.com/ray-project/llm-numbers
[2]https://www.linkedin.com/in/scottsun94/
— 完—




推荐阅读