黄岩新媒体

从 AlphaGo 到 GPT,注定坎坷的通用人工智能之路

2023-06-10 18:30:01

南京刑事辩护律师

学会使用一个正在快速进化的黑箱工具,是人类以前没遇到过的课题。

文丨龙志勇程曼祺编辑丨程曼祺

75岁的图灵奖获得者杰弗里·辛顿(GeoffreyHinton)大半辈子都在研究AI,推动深度学习成为了AI研究的主流,长出了如今的大模型和ChatGPT。现在,他怕了,也后悔了,担心自己的毕生工作,也许会把人类推向未知风险。

“我用一个常用借口安慰自己:如果我没做,其他人也会做。”5月初宣布从Google离职后,辛顿告诉媒体,“在搞清楚是否能控制AI前,我不认为应该再扩大它的规模。”

深度学习奠基人的深切担忧,是GPT强大力量的一个注释。

去年11月底上线后不到2个月,ChatGPT就获取1亿用户,成长速度超过此前任何一个互联网产品。今年4月,光网站上用ChatGPT的用户就超过了微软必应搜索,相当于百度的60%,创纪录的发展速度引爆了全球产业和资本热情。

每一周,都有大小公司在推出自己的大模型,AI颠覆世界不再被当成遥远的想象。可以在各个领域代替人工的通用人工智能(AGI,artificialgeneralintelligence)似乎随时就会诞生。

相似的AI狂热,历史上有过几次。最近一次是2016年春天,Google旗下DeepMind开发的AlphaGo大胜围棋大师李世石。人们期待AI会快速跨行业复制、应用,颠覆已有的许多生意,甚至带来更大的社会变化。

2016年4月,《医疗未来学家》:AlphaGo能重塑医疗行业的未来

但过去7年里,那些想收获巨大商业价值的投资人和创业者,和担心AI会引发大规模失业的批评者,都“想多了”。

原因之一是,在不同行业、场景和客户之间,复制AI能力的难度与成本远超想象——AI通用性被大大高估了。

当人们想在医疗、金融、工业质检、营销决策等多种行业、场景使用AI时,别说跨行业,跨客户也很难。一批以“AI赋能千行百业”为愿景的创业公司在2016年后成长为超级独角兽。但因人员成本高昂、产品难以标准化和规模复制,它们中的多数沦为不断做定制项目的软件外包公司。

原因之二是,以深度学习为基础的AI有“黑箱”特性。在2017年底举行的AI顶级学术会议NIPS上,来自Google的阿里·拉希米把深度学习比作炼金术:“我不懂飞机原理,但不怕坐飞机,因为我知道有一大批专家掌握原理。深度学习界最让人担心的是,我自己都不知道原理,而且我知道你们也不知道。”

开发AI模型和算法的人也无法完全解释它如何运转,在商业实践中,也就无法明确知道一些改动可能带来何种效果变化,这极大提高了模型调优的难度,增加了项目交付成本;同时也很难完全杜绝模型的某些特定问题。这会影响AI落地一些不能出错的场景,比如追求极致安全的无人驾驶。

这一轮大模型热潮解决了AlphaGo时期,AI商业化的部分阻碍,但另一些当时暴露的问题仍存在,甚至还在进一步放大。

上一次,通用AI的威力如何被错判

AlphaGo时期,AI公司做不同的客户项目时,基本要从头训练不同模型。2019年、2020年和2021年上半年,人工智能公司商汤科技分别生产了1152、9673和8377个AI模型,但并未产出相应商业收益,有些模型做出来后,可能只有三五个客户可复用。从2019年到2020年,商汤模型数量增长了740%,营收增速只有近14%。

中国的AI四小龙,商汤、旷视、云从和依图在递交招股书前,总融资额约75亿美元,跟同期成立的字节跳动2020年前的融资总额相当。但字节2020年的收入超过2360亿元人民币,是这四家公司同期总收入的30多倍。

字节成功的关键也是用好了AI技术,它打磨出了一套高效推荐算法,再配合新闻资讯和短视频App实现广告变现,是典型的互联网商业模式。商汤等公司原本的期待则更宏大,却更难落地——用AI赋能千行百业。

这是一个足以吸引大把抱负、智慧、野心和资本的远大愿景。在2016年前后,一批科技巨头、顶尖学者、投资机构和创业公司对这一方向投入原因和现在一样——AlphaGo也让人们看到了更通用的AI的可能,只是这种“更通用”的短期商业价值被高估了。

AlphaGo之前,当时的大多数深度学习模型需要用大量预先标注好的数据来训练,这被称为“监督学习”。这些数据通常是机器搜集的一个信息对应人工标注的一个结果,例如医院诊断场景的标注数据是“病人症状描述”和对应的“医生诊断和医疗措施”。

监督学习碰到的数据问题,直接影响AI商业落地时的效果和成本。

因为在监督学习中,模型的表现会因数据环境变化而有较大波动。且商业化所需的数据,尤其是客户现场的真实数据难以获得。当时多数模型在开发阶段,只能先使用小规模行业数据做训练,这些数据不一定能反映最新行业情况和客户特点。所以一个模型虽然在研发阶段能取得不错的效果,但真到了客户那儿,数据和环境一变,效果就没准了。AI公司必须重新收集客户环境下的数据,重新训练模型,无法做到“一次开发,多次售卖”,模型交付的边际成本居高不下。

IBMAI医疗系统Watson,就曾因为训练模型时使用的数据跟不上最新医疗护理标准而误诊。另一个常见的例子是,在工厂部署AI检测工具时,真实车间的光线、粉尘条件的变化都会影响模型效果,从而影响同一套方案在不同工厂、流水线或工位上的表现。

AlphaGo,尤其是其后续版本AlphaGoZero则带来转机,它并未学习人类的下棋数据,而是自己生成数据,在自己与自己的对弈中不断提升下棋水平,不需要人类专家提前标注大量数据。这能大幅降低数据获取难度,提升训练的数据量,取得惊人效果。

但当人们想把这种模式复制到围棋、德扑、星际争霸等有限规则游戏之外的场景时,它的适用范围却十分有限。

AlphaGo可以在计算机模拟环境中自我对弈,无限试错,直至找到神之一手。但大多数场景,尤其是涉及线下物理世界的场景没有这样的试错空间,AI医生不能拿病人试错,AI司机不能拿行人试错。

在虚拟环境中建立自动驾驶仿真器、机器人仿真器来获取数据是解决手段之一,但又会遇到新困难:想要做到对物理世界100%的仿真,开发成本无限高;如果跟物理世界差距太大,训练又没效果。

开发出AlphaGo的DeepMind自己也没能做到拓展行业。2016年-2017年,它启动了一批与医疗、能源行业的合作,试图让AI走出虚拟游戏世界,这些项目要么惨淡收场,要么就一直停在宣传状态。

那些被AlphaGo刺激,投入上一轮AI商业化热潮的公司,往后几年里不得不用新故事包装一个实际变化不大的技术方案,活成了无法用标准产品服务多个客户的“项目公司”。

为了让一项AI产品落地,调参、优化模型,做工程配套,把AI嵌入客户已有业务系统或流程,这些工作一个都不能少。其中模型调参、优化等工作一般需要AI公司派薪资不菲的算法工程师去客户处驻场,这是一个辛苦活。高工资成本之外,这也使AI公司留不住人。

最后一公里,成了最远、最累的一公里。

大模型让AI更通用了,但可能还不够

与AlphaGo相似,方兴未艾的大模型热潮,也许诺一个更通用的AI。上个月,OpenAI与沃顿商学院一起发表了一篇论文,标题就是《GPT是通用技术》(GPTsareGPTs,第二个GPTs指General-PurposeTechnologies)。

GPT的确表现出了超出以往的通用性:它可以在不需要特殊新数据和训练的情况下,学习一些新技能;在不同场景、客户那里复制自己已学会的技能时,它也能以更低成本适应新的数据环境。

其中,学习新技能的能力来自大模型不断扩大训练数据量和模型参数时产生的“涌现”现象。如OpenAI在2019年发现,GPT-2出乎意料地自学了文本摘要和翻译等几种技能。此前OpenAI并没有用不同语种间的对应语料,专门为翻译任务进行训练,这是过去让AI学会翻译的常规方法。

GPT之外,其他生成式预训练大模型也表现出了“随模型规模增长,学会更多新技能”的规律。这种前所未有的无师自通是大模型更强通用性的主要来源。

随着参数从80亿增长到5400亿,GooglePaLM大模型学到了多个新技能。

对数据更好的适应,则是指基于基础大模型做微调(fine-tuning),获得定制化模型和产品的过程。

大模型的预训练使用无需标注的数据,而微调仍需使用成本更高、更难获取的标注数据。但因为已经有了强大的通用模型,微调理论上比过去遇到新任务、新环境就得重新收集、标注数据,重新训练模型的做法更便宜、简单。

上述特性都指向业务复制和行业迁移时的更低边际成本。提供GPT大模型的公司,有可能用统一的通用模型服务多种行业和场景,完成AlphaGo之后很多公司一度追求却越行越远的目标。

然而,一些迹象也显示,从通用模型到真正的可用产品,今天的“最后一公里”仍成本不菲。

在GPT-3.5基础上打造ChatGPT时,为提高对话效果和减少虚假、歧视信息,OpenAI雇用了大量标注员给机器的回答打分,标记仇恨、色情和暴力言论。综合媒体报道,OpenAI给美国本土的数据标注人员付15美元时薪,给非洲的合同工的时薪只有十分之一,但这些工人正在争取更高的工资,肯尼亚的一些数据标注员上周已投票成立工会。OpenAI在东欧、拉丁美洲也雇有约1000名从事类似工作的合同工。

结合GPT大模型技术特点和各行业需求,GPT类大模型商用时的局限首先在于,通用性的范围有边界。

目前GPT主要是通过文本数据预训练获得各种与自然语言相关的认知智能能力。大模型的多模态能力范围仍未验证,GPT-4能看懂梗图里的梗,但未必能识别X光胸片里的异常。因此,在以数值回归、行为预测为代表的决策智能,和以图像、视频识别为代表的感知智能领域,大模型的适用性会打个问号。

正常情况下,这一局限本不是问题,因为没有任何技术能适用一切情况。但狂热会冲散常识。一些本来和大模型关系甚远的行业,现在也在讲“快速颠覆”,一些公司向客户许诺新技术有神奇威力,但对适用性描述不足。

对认真想用大模型做事的人来说,更值得考虑的问题是,即便是在大模型最擅长的语言认知智能领域,其固有能力缺陷,也会限制某些场景的商业化。

这些缺陷包括规划能力不足、无法持续学习、缺乏长期记忆、推理成本高和时延高等。其中对商业化威胁最大的问题是大模型的不可控、不可预测和不可靠。典型表现是大模型有幻觉(hallucination)倾向,它会产生“完全没有出处的非真实内容”。

辛顿的学生,OpenAI首席科学家伊利亚·莎士科尔(IlyaSutskever)多次表示,幻觉是大模型应用到更重要场景中的最大问题,但当前无法从根本上控制幻觉的产生。因为OpenAI给GPT设立的训练目标就是更准确地“预测下一个词”。为不断给出符合人类语言习惯和预期的内容,大模型并不关心信息真假,有时编故事编得越像、越投入,就越容易获得人类好评。可以说幻觉是一种内生于GPT模型目标和架构中的缺陷,随着用户更加信任模型,幻觉的危害会越来越大。

同时,给大模型带来更强通用性的“涌现”过程,本身也不可控、不可预测,因而难以围绕涌现做商业和业务规划。

Google、斯坦福和DeepMind联合发表的《大语言模型的涌现能力》(EmergentAbilitiesofLargeLanguageModels)论文发现,大模型的新能力涌现不是随着模型参数的线性增长而逐渐发生的,而是在模型参数超过某个临界点后爆发,如超过620亿参数后,会获得思维链(CoT)多步推理能力,超过1750亿参数后,会获得识别讽刺内容的能力。

LaMDA、GPT-3等模型随参数规模扩展的新技能学习曲线。

人们现在很难预测,参数规模的下几个临界点在哪儿,以及突破这些临界点后,可能涌现出什么能力,这些能力对特定商业目标是有益还是有害。这就很难在应用落地时提升特定新技能涌现的效率与确定性。

这些大模型落地时的局限,可能使一些理论上可行、聊起来很嗨的应用场景,在商业化过程中经历长期碰壁。

例如,一对一的大模型私人医生服务要真正落地,依赖于医疗场景下,多模态图像能力的突破,还需要模型能长时间记住病人情况、治疗历史和沟通过程,而且这个系统必须准确,否则一个小错误就可能带来致命结果。这都是目前大模型的短板。在无法100%解决模型缺陷时,做大模型医疗服务的公司,还要与监管机构在试错空间、法律规范和监管方式上达成一致。

在预估大模型的通用化落地时间时,OpenAI首席科学家伊利亚曾用自动驾驶来类比:“看看特斯拉的自动驾驶,看起来什么都能做,但在可靠性上还有很长的路要走。大模型也一样,虽然看起来什么都能做,但同时还需要做更多工作,直到我们真正解决所有问题。”

市场狂热,OpenAI谨慎

基于对跨行业落地难度和风险的认知,OpenAI从去年下半年就开始和法律、教育、医疗等不同行业伙伴,对GPT-4行业应用的效果和问题进行了专业、严谨的实验。

例如在法律行业,OpenAI支持Casetext公司基于GPT-4开发AI法律助手CoCounsel,尝试应对幻觉问题。

首先,由AI工程师和律师团队花费近4000小时,基于3万多个法律问题进行模型训练和微调。然后,组织了400多名律师作为Beta测试小组,要求他们在日常工作中使用CoCounsel至少50000次,并提供详细的问题反馈。通过这样的项目,可以在大模型投入应用之前,更早暴露潜在问题,评估风险级别以及风险解决方案的有效性。

这不是一个轻松、便宜的工作,需要一批专业人士与技术人员一起完成行业定制。与AlphaGo后的上一轮AI热潮相似,如果目标市场太小、未来复用机会不多,或复用起来边际成本太高时,如此高投入的前期开发就没什么商业前景。

在OpenAI谨慎、扎实推进某些行业应用的时刻,被它刺激的市场却要狂热和激进得多。

春节以来,A股“ChatGPT”板块多支股票大涨,发大模型,成为不少上市公司拉升股价的利器。美股也类似。如今年1月底,美国一家企业级应用提供商C3AI宣布,将基于OpenAI最新的GPT大模型能力提供一款生成式AI企业搜索产品,企业用户可以直接用自然语言询问这款产品,“这个销售计划完成的可能性有多大?”或“这辆卡车什么时候需要维修?”

尽管没有解释自己如何使用企业数据来做出分析预测,消息一发布,C3AI的股价依然飙升超20%。市场尽可以发挥想象力,但企业客户在考虑类似C3这类应用承诺时,应当了解,大模型目前并不具备与数值相关的预测能力,未来能否涌现也未知。

一家新能源工业软件公司董事长在近期一次媒体访谈中说,他认为ChatGPT在工业领域真正要产生业务价值还需很长时间,但产业需要这样的概念,“没有概念,你就没有投资,没有投资这事就没有任何机会”。

他委婉地指向一种现象:无论GPT短期能不能产生价值、是不是自家产品的核心,为了拿到钱或资源,很多公司选择先把羊头挂起来。这进一步放大了虚假繁荣和乐观。只是有人是在表演乐观,有人是真被带得乐观过了头。

在失控中追求可控

1994年的《失控:机器、社会与经济的新生物学》一书中描述了复杂系统的进化、涌现和失控。凯文·凯利总结,人类大脑的神经网络、蚁群、蜂群这类系统的动作是从一大堆乱哄哄却又彼此关联的事件中产生的,像是成千上万根发条在并行驱动一个系统,任何一根发条的动作都会传递到整个系统。从群体中涌现出来的不是一系列个体行为,而是众多个体协同完成的整体动作,例如从相互连接的无数神经元中涌现的人类思维,成千上万的蚂蚁无意识协作下建筑的蚁巢。这就是群集模型系统。

AI大模型也符合群集系统的特点。由于缺乏中心控制,群集系统效率相对低,如大模型就存在信息冗余,且不可预测、不可知、不可控。但缺乏中心控制也带来了可适应、可进化、无限性和新颖性的优势,因此大模型能通过涌现自学新技能。

OpenAI推测,涌现也许是一种类似进化的机制。OpenAI首席科学家伊利亚为作者之一的论文《学习生成评论并发现情感》中提到,当给了足够的模型容量、训练数据和计算时间后,GPT大模型内部自行产生了一个情感分析功能单元,能准确辨别文字是在表达喜悦、悲伤还是愤怒。

论文认为,这有可能是因为能辨别情感色彩,对GPT更好完成其目标,即预测下一个词有很大帮助。就像人类为了生存繁衍这个单一目标,进化出了复杂的生理特征和文化习俗,那些更适宜生存、让种群扩大的特点会被保留,涌现可能就是这样一个类似自然选择的进化过程。

而进化的另一面是失控,能进化的东西,本身不会是完全可控和可以提前设计的。进化不光创造新技能,也可能创造出幻觉。学会使用一个正在快速进化的黑箱工具,是人类以前没遇到过的课题。我们需要在接受、理解和适应失控的前提下,寻找可控的部分,避免商业风险和更大的风险。

一方面,AI学界仍在做更多研究,尽可能多了解大模型涌现的规律。阿里·拉希米2017年把AI比作炼金术时,曾建议借鉴物理学简化问题的方法,打开AI黑箱。

6年后,《通用人工智能的火花:GPT-4早期实验》论文一作、微软研究院的塞巴斯蒂安·布贝克(SébastienBubeck)又一次提出了AIPhysics的研究方向,即借鉴物理学思想,用简化模型和受控实验的方法拆解大模型,希望找到影响涌现的元素。

就在昨天,OpenAI也发表论文《用语言模型解释语言模型里的神经元》,用GPT-4解释GPT-2中某些神经元的一些工作情况。这种方法目前仍存在局限,如仅解释了行为而没有解释相关机制和对任务表现的影响,但OpenAI希望完善这种方法来推进大模型的可解释性,并且是能完全自动化地做解释。

另一方面,产业界也正在尝试各种方法,让AI大模型整体的结果更可控。

选好做什么,不做什么。

有些场景中,大模型的一些现有缺陷对商用的影响没那么大,甚至可能是助益。如强调个性化和趣味性的聊天应用character.ai创始人说:“我并不认为幻觉是需要解决的问题,我甚至很喜欢它,这是模型有趣的特点。”在character.ai做的“角色扮演”聊天场景中,幻觉是想象力的源泉。

但对另一些容错很低的行业,如医疗诊断、自动驾驶、工业自动化,幻觉却危害显著。

通过人工或机器手段来给大模型的缺陷打补丁。

在适合使用GPT大模型能力的领域,针对幻觉、规划能力不足、缺乏长期记忆等缺陷,现在都有部分解决方案。

机器手段包括,通过本地数据库查询的方式在对话中带入历史记忆,增加模型的记忆能力;通过两个模型间左右互搏的方式识别幻觉。人工手段包括,通过提示工程指引大模型进行复杂规划,通过人工审核来发现并纠正模型幻觉。

以上手段在不同行业场景、不同数据环境下的效果与成本,需要用实践验证,其综合结果会影响GPT大模型在这个行业或场景的商业价值。

针对目标行业做深入地定制化,对快速颠覆有谨慎期待,对额外的成本有预期。

由于比以前更通用但还不够的通用大模型仍无法通吃所有行业,越来越多人意识到,在通用大模型之上,还可以针对垂直领域精细化训练和定制大模型,这类模型仅在指定行业场景下执行有限种类任务,规模可适当缩小。

从轻到重,做定制化的方式有:

基于已有闭源大模型的API接口,通过应用级的微调+打补丁做定制应用。选择开源的、已经完成预训练工作的基础模型,做更多定制。从头自己训练垂直模型:从预训练数据选择、模型结构设计切入,定制全新大模型,以解决特定行业场景的问题。如彭博推出了500亿参数的金融垂直大模型BloombergGPT,预训练使用的金融数据集和通用数据集各占一半,在金融特有任务,如新闻情感分析上领先于通用大模型。

越重的做法,成本越大,壁垒也越高。不同行业,怎么做最有竞争优势,没有标准答案,但可以有一个大致的决策模型:

更稳的选择是先做最轻的打补丁,在掌握问题和数据、验证业务价值后,再决定是否走彻底定制路线。但这可能错过时间窗口,导致追不上行业里更早做出垂直模型的公司,后者可能更快形成数据反馈到模型能力迭代的“数据飞轮”,与其他人拉开差距。

更大胆的方式是跳进选好的方向,直接从头一边炼大模型一边找业务价值,这需要持续的资源,也是目前一批融资能力最强的创业者的共同选择,如美团联合创始人王慧文和搜狗创始人王小川。

未来大模型可能是这样一种商业生态:市场上将有少数几个通用大模型来自“OpenAI+微软云”这样的顶尖创业公司和云巨头的组合,或其他自研通用大模型的巨头。他们会自己开发部分产品,直接满足一些大模型最擅长的场景,或更能容忍错误和不可靠性的场景,如个人知识助理、陪伴式聊天、创意内容生成、非专业的问答式检索等;同时提供MaaS(ModelsasaService)服务,为一些想做定制化应用的企业客户提供模型基础,这需要简化微调工作,使第三方集成商或客户也能方便地自己微调,低成本交付产品。OpenAI已在让微调本身变得更自动化。

而在一些高价值、高要求,需要数据保密或数据不好获取的专业场景,还会存在更多单独训练、服务行业的垂直大模型。

在蒸汽机时代,全社会花了几十年来充分实现新技术的潜力,大模型的跨行业落地也会经历一个比想象中曲折的过程。正如OpenAI论文《GPT是通用技术》中所说,这需要针对其缺陷,结合各行业的特点,与产业合作方共同发明应用解决方案,甚至重新设计企业组织。

这个过程会伴随信心起伏,高估后有贬低,低谷中又酝酿下一个变化。引燃GPT热潮的OpenAI成立于2015年11月,它本身是上一轮AI信心的产物,只是它对AI的信心与众不同。OpenAI成立之初就在追求AGI,而大部分从业者过去并不认为这能在他们有生之年实现。多年来OpenAI并未急于给上一阶段的AI技术进展找实际商业场景,而是在摸索AGI的突破口,直到坚硬的岩石终于被凿开一丝裂缝。这还不是可以轻易收获的时刻,只是一个漫长征途的开端。

上一篇:

下一篇:

Copyright© 2015-2020 黄岩新媒体版权所有