什么是多媒体,它的特征是什么

序言
全球互联网在OpenAI公司发布的ChatGPT的引爆下,迎来了生成式人工智能技术的革新。回顾这一年多的人工智能发展,其波澜壮阔的程度无法用任何现有词汇来形容。AIGC技术的进化速度前所未有,通用人工智能的轮廓日渐清晰。
在这场不可阻挡的技术革新中,公众的情绪经历了从旁观、到求知渴望的焦虑的演变。揭开人工智能技术的神秘面纱,需要深厚的理论基础,这对于大多数人来说并不容易。我特地推出这一系列文章,旨在帮助广大读者了解AIGC技术的真实面貌,掌握其实用技巧,让技术更加平易近人。
关于AIGC,有很多人将其翻译为生成式人工智能,与GAI、AGI等缩略词产生混淆。下面,我将对这几个缩略词进行解释,供大家参考。
AGI(Artificial General Intelligence)可翻译为通用人工智能,指具备人类认知能力的人工智能,能够执行普通人类才能完成的任务。
GAI(Generative Artificial Intelligence)指的是具备生成新数据和内容能力的人工智能技术。
AIGC(Artificial Intelligence Generated Content)最初被用来指代内容,如PGC(平台生成内容)和UGC(用户生成内容);但现在越来越多的人用AIGC来指代技术,此时将其翻译为智能内容生成技术更为合适,以区分更为精准的生成式人工智能GAI。
在这一波AIGC技术浪潮中,大语言模型(Large Language Models,简称LLM)成为公众瞩目的焦点,并快速转化为实际生产力。随后的图像、视频及音乐领域的智能生成模型也引起了广泛关注。本系列文章将以大语言模型为起点,带您逐步深入探索这个神奇的领域。我希望用更通俗的语言让大众理解AI,所以表达并不严谨,请读者谅解。
究竟什么是大语言模型呢?
大语言模型(Large Language Model, LLM)是一种通过大量文本数据训练出来的自然语言处理模型,利用机器学习技术来理解和生类语言。ChatGPT就是大语言模型的典型代表。
提到ChatGPT,我们不得不关注它背后的GPT究竟是何方神圣。其实,GPT是Generative Pre-trained Transformer的缩写。
那么,什么是Transformer呢?
Transformer是一个AI网络模型,这里的“网络”并非我们日常用于连接电脑和手机的网络,而是计算机科学家们模拟人脑工作机制的元网络。Transformer模型由Google在2017年发表的论文《Attention Is All You Need》中提出。这个模型由密密麻麻的元组成,每个节点模拟人脑元的工作机制,接收输入信息进行简单计算后传递给下一个节点。这些元分为许多层,每一层的元相互连接传递信息。每个连接都有一个数值,代表传递信息的强度,这个数值就是我们所称的大模型的“参数”。如今我们会在各种文章中看到关于参数规模的描述,如70亿、200亿等,这就是指模型中有数十亿到上千亿这样的元之间的连接规模。
Transformer的提出旨在解决翻译等问题,其结构为编码器-(Encoder-Decoder)架构。它的精髓在于Attention机制,可以理解为一种性的并行计算策略,让模型能够高效捕捉输入文本中每个词汇间的微妙联系,实现对整体语境的快速理解。
语言是人类文明的瑰宝,我们自小就生活在一个用语言来承载各种信息的环境中,这种环境让我们从小就理解文字所表达的意思。让计算机也具备这个能力是一项巨大的挑战。因为计算机中的所有信息的底层表示都是数字,但智能时代的人们试图用数字来表达一段信息的语义并实现复杂的推理任务。
为什么数字能够表达语义呢?我们可以用更直观的方式来解释这一点。例如,我们用数字来描述一个人时包括性别、体重、身高、年龄等属性来表达一个人的特征。同理图像视频等也可以用数字来表达特征形成一系列数字这些数字的数量就是维度维度越多所表达和容纳的信息也就越多生活中的万事万物都可以转换为一个高维的数字向量也就是理解为高维空间中的一个点Transformer的核心就是采用的Attention机制来完成这个目标在此之前所提出的算法大都需要通过串行计算来顺序感知每个信息导致计算效率不高而Attention的引入大大提高了这个效率带来了大规模训练的可能性大规模的模型训练使得AI模型展现出令人惊叹的各种能力Transformer包括两大核心部分即编码器和编码器扮演着翻译前的理解者角色通过Attention快速分析输入的文字内容理解其语义而则是一位推理者根据编码器所理解的语义推导出希望翻译的目标语言的文字内容这种推导是逐词完成的先输出第一个词然后再把第一个词再次送入推导第二个词如此循环下去直到认为翻译结束才是下一个输出为止在的推导过程中Attention同样发挥着重要作用它被用来整合已经推导出来的信息和编码器捕获的语义信息以确保翻译的精准性GPT类大语言模型的工作原理GPT即生成式预训练模型自Transformer论文发表后OpenAI公司的科学家迅速意识到其潜力并投入研究特别是部分从GPT开始OpenAI相继发布了GPT各个版本直到最近的ChatGPT几乎所有团队都将重心放在结构上因此未来我们看到的很多文章中的Decoder-Only指的就是Transformer的结构的模型那么GPT类大语言模型到底是怎么工作的呢这一部分
