【ChatGPT背后的数学家、计算机学家们】ChatGPT是人工智能在自然语言处理领域的工程化应用,它的基础性研究与近几年的三篇关键性论文有关。2017年的《Attention Is All You Need》,提出Transformer神经网络结构,是GPT模型的基础;2018年的《Improving Language Understanding by Generative Pre-Training》首次提出GPT模型,提升预训练模型的语言理解能力;2020年的《Language Models are Few-Shot Learners》提出了GPT-3模型。
这三篇论文的共40多位作者很有特点,分别来自谷歌大脑、OpenAI等商业机构、大学和研究组织。与工程化研发领域不同,这群基础研究者的“含华量”不高,“含印量”不低,很多是移民或移民后代,而非“纯美”。全球各国为美国贡献了大量基础科研和工程化人才。
最后一篇论文有两位“华裔”作者,均来自麻省理工,且是ABC。但是,在将基础研究转化为ChatGPT工程应用时,清华毕业、赴美深造的华人工程师仍占据一席之地。
此外,或许由于计算机科学的特殊性,这群一线、前沿的AI科研人员主要在25-40岁之间,整体年轻化,这与中国AI领域的重要论文经常出现德高望重的学者有点不同。
王朗
海纳百川有容为大你不服气吗?
wrk
德高望重这个词好,点睛画龙之笔[呲牙笑][呲牙笑]
用户15xxx89
我们的成果可能总被德高望重的人窃取了,所以发表出来总是年龄大的人署名。不然,怎么解释?