【导读】咱们离AGI,好像越来越近了,至少感觉是这样的。时间线从原本说的五十年缩短到五年,还有人大胆猜测2026、2028年就能见到。不过呢,AI在ARC测试里的成绩还卡在0%,在人类的基本技能方面,还像个刚学的孩子似的。难不成咱们是不是太早以为,它已经差不多准备好了?
算力疯狂增长,模型层层叠加,提示词就像燃料似的,一次又一次地被反复输入进去。
AI的发展步伐可没停下来,反而变得越跑越快。
有人说,AGI大概还得等上半个世纪才能实现,遥遥无期啊。
其实呀,现在一些重要的转折点居然被提前了。
曾有人说这条路太长,可谁又想到,它竟然走得那么快。
关于奥特曼最新的看法:AGI这个词,现在基本没啥用处了。
正如MIT Technology Review Insights刚刚发布的那篇题为「The road to artificial general intelligence」的文章所提到的。
咱们对AGI的猜测,现在的节奏,变得越来越明显,肉眼都能看到那速度在飞快地提升。
从GPT-3刚出来时还在说“可能得50年才能搞定”,到现在却变成“5年内就能见到个苗头”,时间咻一下就提前了好几十年。
对未来的AGI,大家的看法可是五花八门。有的人觉得它很快就能实现,可能几年之内就能看到点雏形;也有人觉得这事得再等个十几年甚至更久。反正啊,前景虽然迷人,但真正达到那种既能理解又能自主思考的智能,还真得经历一段复杂的磨砺。
Anthropic的联合创始人Dario Amodei提出了一个更明确、更贴近现实的说法:“Powerful AI”。
这模型拥有类似诺贝尔奖级别的智能,能在文本、语音和现实环境之间自由转换,还能自己设定目标,进行推理并达成任务。
他觉得,最早可能在2026年会出现这个东西。
奥特曼觉得,拥有AGI特征的系统“已经露出苗头”,它的潜能或许会引发类似电力和互联网那样的社会大变革。
从更大范围的数据显示,预期的时间点也明显提前了不少。
好多预测都指出,到2028年,AI达成多个AGI重要里程碑的可能性至少有一半。
到2027年,没有人帮忙的情况下,机器完成所有任务超越人类的机会大约只有10%,到2047年,这个数字可能会涨到一半左右。
这条还得耗上「半个世纪」的路,现在正逐步被改写。
如今的AI嘛,就像一个表现出色的天才学生似的。
它不光能背书,还能参加考试,甚至还能在那些难度挺高的专业任务中获胜。
要是离开考场,它就像失去了灵魂一样。
在图像识别方面,它可能会把香蕉误认成吐司;跑导航的时候,有时候会直冲着墙走;要它接一杯水或者剪断一根线,几乎都搞不定,手忙脚乱的情况很常见。
这些可不是玩笑,而是真实发生的事。
所谓的AGI,真正的关键不光是逻辑推理和语言表达的本事,还得拥有“人类习以为常的那些技能”。
McKinsey曾总结过,AGI在模仿人类智慧方面存在的8个主要缺陷,这些缺点几乎涵盖了我们和智能体打交道时的每个方面:
你瞧,咱们的AGI在几个方面还挺吃力的。第一,视觉感官那块儿反应慢,对颜色和图像的变化容易搞错,缺少真正的视觉连贯性;第二,听觉方面,难以分辨声音在空间中的位置,也无法捕捉细节或者理解语调和情绪;第三,做细节动作,比如穿针或者做外科手术,也难以胜任;第四,语言上的理解,高级的语义理解差得远,只能勉强搞懂句子的句法结构,面对上下文或者暗示,经常走偏;第五,解决问题的能力有限,只能应付那些事先设定好的题目,一遇到新任务就不知所措;第六,导航技能也不行,在动态环境中很难自己规划路线,也无力适应变化;第七,创造力方面,连提出真正创新的问题都做不到,也不能自己优化或改写自己的逻辑框架;最后,社交和情感认知,完全看不懂脸上的表情,也听不出语气的微妙变化,更别说真心实意地感受对方了。
厉害,但有点不均衡;机灵,却反应慢。
这就是如今的AI——摆在我们面前,却像被一层无形的玻璃挡着,感觉还是差点意思。
AGI可不是靠一块更大的芯片叠起来的,它得靠一整套不断演进的计算体系,从硬件到底层软件,缺一不可。
从数据中心的能源布局到手机设备的资源管理,环环相扣,彼此呼应,互相唤醒。
这场战事,已经悄然开始了。
一进入深度学习时代,AI对算力的需求增长速度从21个月翻一番变成了不到6个月就翻一番,模型变得越来越大,膨胀了百倍,训练的花费也水涨船高。
在深度学习兴起后,AI对算力的需求呈现出快速攀升的趋势,原本大约每21个月翻一番的增长速度,缩短到了不到6个月就实现一次翻倍,模型的规模不断扩大,成长了几百倍,训练成本也跟着大幅提高。
有些预测直言,将来的某些AGI训练项目所需要的算力,或许会超过一国的GDP总量。
这不光是硬件之间的拼杀,实际上还是架构的全面重新设计。
为了应付大规模推理和实时反应的要求,AI系统正逐步走向异构计算路线:CPU、GPU、NPU、TPU各展所长,把最佳的算力用在最合适的任务上。
支撑这多芯片联合作战的,主要靠那些藏在底层的系统软件和框架工具。
说到通用AI的计算栈结构,基本上是由多个层次组成的,从硬件到软件逐级叠加。核心硬件层是GPU和TPU等加速芯片,提供强大的算力基础;接下来是底层的系统软件,比如操作系统和驱动程序,确保硬件和上层软件的通信顺畅;上面则是各种深度学习框架,比如TensorFlow、PyTorch,为开发提供便利的接口和工具;再往上,是各种模型和算法的实现,比如语言理解、图像识别等,最终支撑整体AI应用的运行。这一整套架构配合运转,才让通用AI能高效、稳定地执行各种任务。
它们扮演着管理、协调和调度任务的角色,帮助开发者在不需要重复写代码的情况下,调用不同的硬件资源,实现跨平台的部署,还能提升性能,减低能耗。
就算这样,想用现有的这套算力体系直接打造出AGI,还是挺难实现的。
MIT的报告说,核心问题不在于算得不够快,而是结构上不够合理。
就像Transformer当年带火了生成式AI一样,AGI可能也得来个架构上的大革新。
不是再造一个更大的LLM,而是得搞出一种认知的框架,让模型跟人类似的,在新环境里能学会思考、适应、转移技能,还能自我优化。
这或许就是眼前最大的问题所在——
咱们得搞个更厉害的计算架构,才能推得动AGI的实现,不过这也意味着得重新搭建智能的基础,打破光靠算力堆砌的极限。
François Chollet,ARC智力测试的发起者,他还提出了一个更为严格的衡量标准:
真格的智能呢,就是能把你手头上知道的那些东西,重新拼凑一下,搞出个新花样, tackle那些还没遇到过的问题。
为了证明这个想法,他特意安排了ARC-AGC的检验。
跟以前的测试一比,每题都算是崭新的挑战,从没遇到过的任务轮番上阵。
主要考查的,是那种真正靠人类思维方式来的推理,比如抽象思考、迁移解题技巧以及类比联想的能力。
没想到,纯粹的大型语言模型的得分居然是0%。
就算是经过额外推敲和优化的系统,成绩也只是个位数而已。
而人类呢,基本上都能答对得差不多。
Chollet就直言不讳地说:
这说明现阶段最牛的AI模型,根本就没有那种灵活拼凑知识的本事。它们只是记忆力棒,但真要动脑子还不行。
这次测试反映出的,不是参数少、训练不充分,而是真正的方向出了问题。
它并不是没有力量,而是没有那种“思考的框架”或者说“思维的结构”。
通向AGI的路途,从来不只有一种方向。
但逐渐积累的不少证据都在指向一个共同的结果:
看起来,AGI可能并不是靠单一技术的突破,而是在各种不同系统协作共振中慢慢成型的。
它得配备更灵活的硬件架构——用合适的芯片,干专门的事,像CPU、GPU、TPU、NPU各自分工明确。
它还得有个更聪明的调度体系,让这些不同类型的芯片灵活配合,绝不浪费一丝算力。
它得有个全新的架构,比如说像Transformer对比GPT那样,带来一场思维方式的飞跃。
连智能的概念都得从头再琢磨一遍,重新搭建一套体系。
可能让我们迈向AGI的,并不是某个「更厉害模型」突然出现,而是一次技术方向上的集体转变。
就像MIT的报告里提到的那样:
在追求更聪明的机器的过程中,我们或许也会首次真正明白“聪明”到底代表着什么。
