0°

ChatGPT的最大瓶颈和人工智能的未来

  2023年5月27日,是复旦大学118周年校庆。“校庆种种活动,以促进科学研究为中心。”从1954年校庆前夕时任校长陈望道提出这一主张开始,在校庆期间举办科学报告会,就成为复旦的重要学术传统之一。

  赓续学术传统,百年弦歌不绝。5月9日起,来自文社理工医各学科的40多位复旦名师将陆续带来学术演讲。

  “2023相辉校庆系列学术报告”第一场,由复旦大学哲学学院教授徐英瑾以《从人工智能哲学的角度看ChatGPT》为题登台开讲。

  与公众对ChatGPT广泛的赞誉或恐慌不同,徐英瑾认为,ChatGPT是将“常人”的意见予以全面的机械化复制,会加剧人类“自欺”现象的泛滥。

  复旦大学哲学学院教授徐英瑾发表演讲 本文图片均由 成钊 摄

  没有通过图灵测验,是否仍有可能被认定为人工智能?

  在史蒂文·斯皮尔伯格导演的电影《人工智能》中,一对因车祸痛失爱子的夫妻收养了人工智能“大卫”。在被人类养育的过程中,大卫渐渐产生了“我到底是一个机器,还是一个人”的困惑。

  这背后隐含了一个深刻的哲学问题——机器能够思考吗?正是这个疑问,当年引发了徐英瑾对人工智能的学术兴趣。

  哲学如空气般无处不在,哲学家的使命就是带着历史与辩证的眼光,将不同的学科体系打通,寻找它们背后隐藏的普遍规律。“哲学的一大特点是思考大问题、澄清大问题。”徐英瑾将哲学形象地比作“爬山虎”,认为哲学可通过“X+”的方式附着在数学、物理学等诸多学科上,通过提供反思获得养料,但究其根本,哲学仍需要回到形而上学,接受哲学“本部”的指令。

  探讨和理解人工智能,首先要回归对于“智能”这一概念的辨析。徐英瑾从输入与输出之间的映射关系切入,介绍了人工智能之父阿兰·图灵提出的行为主义标准。判断一物是否有言语行为从而认定其是否智能,这便是著名的图灵测试原理。

  没有通过图灵测验,是否仍有可能被认定为人工智能?徐英瑾以不通现代语言的土著、善于筑巢的鸟类以及设想中的外星人为例,阐释了与人类顺畅沟通的言语行为并非认定智能的必要条件,而只是充分条件。

  对于人工智能的发展,社会各界的观点目前可大致分为乐观论、悲观论和泡沫论三类。支持“泡沫论”的华裔科学家、斯坦福大学教授李飞飞曾说,不要高估现在人工智能的发展水平,从物理学角度看人工智能,它目前还处于前伽利略阶段,徐英瑾对此表示赞成。

  演讲现场

  真正识别人类精神内核,人工智能仍在路上

  “理解ChatGPT的本质并不困难。”徐英瑾介绍,ChatGPT的英文全称是Chat Generative Pre-trained Transformer,其中Chat(聊天)一词,在人工智能领域地位特殊,这源于图灵测验的一项发明——早已出现的“聊天盒(chatbox)”技术。而ChatGPT作为一种大型语言模型,是“传统神经元网络技术+深度学习技术”的进阶版,通俗来说,就是通过数学建模建造出一个简易的人工神经元网络结构。

  尽管ChatGPT的语言通顺程度和机器翻译水平令人赞叹,但谈到这种模型与人类的根本区别,徐英瑾指出,人工智能的进步,实际上是统计学意义上的进步,是通过不断迭代的大规模数据集和人工语料训练后“野蛮投入”的结果,因此,纵使ChatGPT看到“路遥知马力”能接上“日久见人心”,但它并不能真正理解中文诗词的精妙内涵。

  从海德格尔哲学的角度看,这种人工智能系统训练方式将不得不把“常人”的意见加以建制化与机械化,由此使得社会意识形态的板结现象变得更为严重。换言之,从机器的视角看,一个正确的意见就是被大多数人所认可的意见,因此,少数“异类”提出的“离经叛道”之说在技术上就会被过滤掉。

  “这需要我们的高度警惕。”徐英瑾强调,“假若ChatGPT技术在托勒密的时代就出现,哥白尼的‘日心说’恐怕会永远被判定为错误答案。”

  而由于人工智能训练与当下总是存在时间差,无法面对未来,是ChatGPT这类人工智能的最大瓶颈所在。徐英瑾表示,过度依赖ChatGPT,可能会让人丧失反思力与对未来的把握能力,陷入过度“自欺”的状态。

  人工智能未来到底走向何处?在他看来,要想真正走通人工智能道路,需要在结合节俭性算法与推理引擎的基础上,兼顾哲学思维带来的“破”与“立”。技术的跨越必然需要带来应用场景中的深入观察,无论人工智能变得多聪明,适应与满足人类发展的需要是根本指向。大数据的训练很难让机器对语境形成精准识别,如何突破语料的伪装,真正识别人类的精神内核,人工智能仍在路上。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论