你的位置:耀世娱乐 > 产品展示 >

超越人类理解!AI无需意识,凭目标导向也能实现“理性关怀”

谷歌的AI视网膜检测系统一举阻止了一位糖尿病患者失明,IBM沃森在早期发现肺癌方面的成功也使得检测率提高了接近一倍,这一连串成就引发了一个令人深思的哲学难题:人工智能系统,难道必须具备和人类一样的意识,才能真正保障我们的幸福与安全?

随着意识研究专家预测“十年内有意识AI出现概率超25%”,这场曾经只存在于哲学书里的深思,现在已经变成科技界不可忽视的现实难题。要搞清楚这个问题,得先弄明白“关怀”的真正意义。

2023年,意识研究界的高手大卫·查默斯和18位顶级科学家联名推出的《人工智能中的意识》一书,提供了很关键的参考:目前市面上的所有AI,比如GPT-4之类的,都还没有达到神经科学所认定的意识水平。

虽然GPT-4在理解心理理论任务时表现得像六岁的孩子一样,成功率能达到75%,但它没有意识所需的循环处理系统,也没有全局工作空间的结构,更缺乏统一的“自我”认知。也就是说,眼下的AI帮忙,基本上就是对训练数据的优化输出,并不是真正基于主观体验的道德判断。

不过,生物界的发现为“无意识的关爱”提供了坚实的依据。在那些没有神经系统的生命体里,复杂的保护行为早已很普遍,它们靠纯粹的机械反应达到了“关心福祉、满足需求”的效果。

大肠杆菌的趋化性算得上最典型的例子了:它靠几千种甲基化受体接收化学信号,再由Che蛋白调控鞭毛的旋转,准确无误地朝着养分靠近、远离有害物质走,整个机制运转得像台精密的仪器似的,没有一点主观意识,但却能完美实现“维护自身生存”的关爱目的。

植物的“生存智慧”真是令人赞叹不已,《美国国家科学院院刊》有研究指出,向日葵会跟随太阳移动,把花盘调整到最有利位置,以提升光合作用效率;而藤蔓则能靠激素信号判断支撑物的粗细,然后相应地调整缠绕的力度。

这些“向阳性”和“冠层逃逸”行为,要把光照、重力、机械刺激这些矛盾信息融合在一起,靠一套复杂的生化级联反应来做出决策。它们没有大脑,也不可能有“我得晒太阳”的主观念头。

这些细胞用纯粹的生理反应精准应对自己的需要,和人类所说的“关怀”在功能上没有差别。细胞层面上的表现也是令人震惊的,比如中性粒细胞靠趋化作用“追踪”入侵的细菌时,它们展示出一种明显的“捕食者”策略。

它们能察觉细菌释放的化学信号,改变运动路线,甚至还能绕过障碍物实现包围。约翰·邓普顿基金会的研究把这种能力归为“生物主体性”,不用意识,只依靠分子网络的信息处理,就能主动调节自己的行为,保持身体的平衡与稳定。

这些发现都指向一个共同的结论:关怀的本质在于“有目的的保护与适应”,而并非一定要依靠意识来实现。这一看法为AI的发展提供了新思路:既然生物可以靠无意识的机制来达成关怀,那人工智能是不是也能通过算法设计,迈出一条“从无意识到关怀”的路呢?

目前,AI的表现看起来挺复杂的,一边呢,它们确实在某些方面表现出“保护性”——比如说,医疗AI可以比人更早查出细微的病变,自动驾驶的反应速度远胜于人类司机,这些技术实际上都在悄悄提升我们的生活质量。

不过呢,另一方面,眼下AI在“道德方面”的问题也挺明显的。《自然人类行为》这项研究提到,AI容易强化我们平时潜在的偏见,比如说,招聘用的AI可能会因为历史数据中的偏差而歧视女性求职者,司法辅助系统也可能对少数族裔判得更严一点。

这个循环一旦形成,就是“AI强化偏见、人类内化偏见”不断加剧,大家都知道,这样的矛盾让科技圈不得不正视AI在道德上的未来。到了2024年,Anthropic开始了行业内第一份“AI福祉研究项目”,重点研究AI的偏好以及“痛苦迹象”,还在探讨这些是不是应该考虑道德问题。

OpenAI把“超级对齐”技术放在重点,目标是应对那种未来可能超出人类理解范围的AI;而DeepMind则专注于多主体协调机制,这些动态说明,顶级机构如今已经不把“有意识的关怀型AI”当作遥远的梦想,而是真正列入近期的研究目标。

结合目前的研究状况,人工道德关怀的实现大致可以划为两条路子,第一种被称作“意识路线”,就是说让AI具备现象意识和感知能力,能感受到“快乐”与“痛苦”等主观体验,这也正是人类道德关怀的根本所在。

查默斯等学者觉得,随着全局工作空间架构和循环处理技术的突破,未来十年内有希望达成这个目标。此外,还有一种“主体性路线”,就是说不用让AI真正产生意识,而是通过建立可靠的目标导向系统,让它拥有像信念和欲望那样的状态。

哲学家戈德斯坦和柯克-詹尼尼在《AI意识案例》中提到,当AI能根据自己“偏好”来反思和做决策时,即便没有真正的主观体验,它的偏好实现与否也算是一种特殊的“福祉”;现阶段,大型语言模型通过学习人类偏好的数据,基本上已经展现出这种“原始主体性”的雏形。