/ ai资讯

【每天学点AI】五个阶段带你了解人工智能大模型发展史!

发布时间:2024-09-26 01:46:29

20世纪50年代

NLP的早期研究主要基于规则的方法,依赖于语言学专家手工编写的规则和词典。这些规则通常是关于语法、语义和句法结构的人工规则。

例如一个简单的陈述句通常遵循“主语 谓语 宾语”的结构,每一个陈述句都以这种规则做标记。

那时候的NLP就像个刚学步的小孩,靠的是一堆人工的规则,就像小时候学说话,需要一个字一个字地学,学完单词学语法。

20世纪70年代

随着时间的推移,20世纪70年代随着计算能力的提升和数据的积累,NLP开始转向基于统计学的方法。这些方法依赖于大量的文本数据,通过统计模型来捕捉语言模式,而非手工制定规则。统计方法开始重视词语的共现关系,并通过概率推断来实现语言处理任务。

NLP开始用大数据来学习语言的规律,就像你长大了,通过听周围人说话来学习新词汇和表达,但是对于你来说每个单词都是独立的,相互没有关系。

2013年

2013年,基于嵌入embedding的NLP方法被发明,通过将词语、短语、句子等语言元素映射到高维的连续向量空间中,这些向量捕捉了词语之间的语义关系,使得模型能够更好地理解和处理语言。

就像用表情符号来表达情感一样,表情是人类语言的抽象,这些向量能捕捉词语的意思和关系。

同年Encoder-decoder的模型结构被发明,为后续的序列到序列(Seq2Seq)模型奠定了基础,至此命运的齿轮开始转动。

2017年

2017年,"Attention is all you need"论文的发表标志着Transformer模型的诞生,它在上一个阶段词嵌入的基础上,基于自注意力机制的模型,它彻底改变了NLP领域的模型设计和训练方式。

Transformer模型通过多头注意力机制和位置编码,有效地处理了序列数据,提高了模型的并行处理能力和性能。它用自注意力机制让模型能同时关注句子中的所有词,就像你在聊天时,能同时关注群里每个人的发言。

随后,基于Transformer架构的BERT和GPT等模型相继出现,它们通过预训练和微调的方式,在多种NLP任务上取得了突破性的性能。

2022年

之后的故事大家都很熟悉了,2022年chatgpt横空出世,大模型的涌现一发不可收拾。你知道他们为什么叫大模型吗?是因为这些模型的参数量已经达到了百亿甚至千亿级别

AI体系化学习路线

学习资料免费领

【后台私信】AI全体系学习路线超详版 100余讲AI视频课程 AI实验平台体验权限

全体系课程详情介绍

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com