2023年11月3日

上海科技大学狂吹自家AI结果ChatGPT爆出奇怪Bug智商直线下滑躺枪

作者 admin

我认为现在全世界都在追求通用人工智能AGI,就像OpenAI所期望的那样——创造出一种高度自主的系统,能在大多数具有经济价值的工作上超越人类。简单来说,我们想要AI成为一个神——一个懂得你的需求,且在帮助人们时能够无限延长生命的神。 为了掌握这项“创造技术的技术”,李彦宏等人正在不惜重金地走上造神之路。现在已经有GPT-4等模型能够结合机械手来拼出微软的标志,那么为什么盘古不能帮助华为研制出“光子计算芯片”呢?或是甚至能够制造出更廉价的导弹,造福毒贩……只要想象力足够丰富,就可以创造出许多新奇的东西——从此,创新不再需要我们人类。 但是,这些憧憬只是梦。 ChatGPT和文心一言等大模型永远无法像神一样万能,因为生产方法错了。 首先,我们需要了解信息生产方式和AI的种类。的确,ChatGPT等模型的表现让人称赞,各类AIGC的表现无疑令人惊艳。但是,即便是像它们这样生成海量信息的模型,过去4个月生成的信息量或许远超过人类有史以来的创新,但是信息学却指出:AI生产的海量信息,即便加上11从我个人的角度来看,60亿人曾经积累过的人类文明等同于零。 实际上,在宇宙中,99.99%的信息并非来自人类或者人工智能。我们所经历的信息大爆炸只是作为人类自我感知的幻觉。 大量的信息来源于另一种生产方式:信息自身的“自组织生产”。我们通常认为信息生产是通过信息生产者进行加工,例如人类发明了电灯,GPT-4可以将文字秒变为各种媒体形式。这些新信息都是通过第三方的劳动——人类或者人工智能来进行加工的,这被科学家称为外部力量干预下的“他组织加工”。然而,这种想法体现了人类狭隘的思维模式。 事实上,绝大多数的信息都是通过信息自身的“自组织生产”而来的。我们需要明白信息本来就是活的,模拟自组织环境也能生产信息。(就像各种咖啡原料自己组成一杯咖啡一样) 而根据生产方式,人工智能的种类可以分为两类:“自组织模型”和“他组织模型”。对于我个人而言,ChatGPT、文心一言和一格等LLM都属于“他组织模型”中的一类,被称作自然语言重组。这些语言大模型的工作原理是预测下一个单词的概率分布,使用的原材料是已经分解的信息载体(例如图文影音)的 token,加工工艺则依靠自然语言规则背后的思维方式。这些模型的开发路径是让算法算力等技术为人工智能提供赋能。 与此不同的“自组织模型”是“环境AI”,它使用的原材料和生产者都是信息自身,加工工艺则是宇宙规律所规定的客观规则。这种模型的开发路径是让信息在提供的环境中加速自行演化。需要注意的是,本文讨论的各种载体信息学原理比较复杂,如果您时间较紧,建议先阅读第三篇文章。 由于这些语言大模型处理的对象是自然语言,语言学专家乔姆斯基公开指责 ChatGPT 及其同类,并给予了它们死刑!请注意,这里针对的是所有同类模型,包括文心一言。因为这些模型处理的自然语言处于离散状态,所以在某些情况下表现不如“环境AI”。乔姆斯基在他的文章《ChatGPT的虚假承诺》中指出,本质上无法平衡创造力和约束力。或者说,它们要么过度生成(同时生成真相和谎言,或支持道德和不道德的决定),要么生成不足。 换句话说,即使人工智能使用算法对下一个单词进行预测,这种方法只能生成新的内容,就像玩拼字游戏一样。即使预测(拼字)能力可以模仿鲁迅的写作,或者在爱因斯坦的语气下说话,也只能增加自然语言所携带的信息数量,而非信息质量。这让我们在读到一些文章时感觉它们是一本正经的胡说八道。 需要了解的是,人们在语言方面存在一个误区,“人们并不是依靠英语、汉语或者阿帕切语进行思考的,而是依靠思维语言。”(史蒂芬·平克,《语言本能》,1994年)。思维语言(mentalese)和自然语言是两种完全不同的信息载体。 例如,《相对论》由德语单词和各种符号组成,但这些拼接组合来自爱因斯坦大脑的思考,只有在这些旧信息从文字迁移到思维语言载体中时,我们的大脑才能以“他组织加工”的方式对它们进行处理,这使得它们具有更丰富的含义。在信息生产过程中,我认为,识别、重组和变异成新信息的目标是将离散的思维语言体加工成自然语言的信息,这样才能实现信息增值而非增殖。换而言之,信息生产过程中的生产载体是离散的思维语言体,而不是蜜蜂的8字舞或人类的各种自然语言,它们仅仅是信息的传播载体,只能传输、记录和表达信息并不能创造信息。这种离散的思维语言体就好像一个猴子在进行拼字或拼图游戏,AI只能拼出“可能性极高”的好东西和脏东西。 然而,不幸的是,就算乔姆斯基的理论很严谨,他却忘了一个最重要的生产要素——反馈。反馈是至关重要的,好的工艺能生成好的内容。因此,我们需要对生产成果进行主观内容的甄别,以确保它们是具有实际价值的信息。 ChatGPT在离散信息加工方面取得了一定的成就,但是,就在我们为这个大型模型欢呼之时,哲学家当头棒喝:它们生产出来的仅仅是鸡肋!他们认为,这是因为龙生龙,凤生凤,而老鼠的儿子却并不能变成神仙。事实上,我们生产的信息质量取决于我们生产信息的工艺流程和方法,只有这样,我们才能够创造出有价值的信息。我认为,当我们在进行信息生成时,人的参与无法避免地会遗传一些陋习。例如,大型模型生成的内容只能是人类能想到的东西。没有人类见过的W星龙虾绝不会出现在文心一言所列举的宇宙美食中,而盘古为华为创造的新芯片也只能基于已知的物理知识而非引力波公式。 因为原材料和加工工艺都来自人类,生成的信息必然包括有臭鸡蛋和好鸡蛋——既有主观臆测也有客观事实。首先,机器学到的《相对论》源自人类的认知。正如我们所说,一千个人眼中有一千个哈姆雷特,所以我们的已知信息库并不是完全准确的,而是充满了对客观世界的主观想象和部分表征。 其次,人类的思维大多不是客观规律,而是以自我为中心的线性逻辑。例如,当UFO发光时,我们可能认为它是不明飞行物,但如果我们采用载体思维,我们会得出相反的结论。因为在载体思维中,UFO其实只是有活生生的生命,就像地球上的小鸟一样。 因此,当ChatGPT使用这种加工工艺和原材料来生成信息时,第三方产生的结果只能带有生产者的“幻觉”印记——既似是而非,亦真亦假。所以,他组织模型天生不足,ChatGPT在完全理解人类思维和认知机制方面存在困难,它只能从人类的角度去理解和生成信息。我认为这是一种极端不负责任的言论。正如佛所说的,世事无相,相由心生,我们所看到的并不一定是真实存在的物体,而我们感受到的事情也并不一定是真实存在的事情。 由于人类和猴子的存在,他们不可避免地会留下自己的印记,这提出了一个让我们深思的问题:谁来甄别真伪? 大型模型的生产成果不可避免地充满真理和谎言,道德和不道德的内容。像李彦宏、王慧文或任正非这样的人能够判断和控制它吗? 但大型模型的未来并不需要我们担心。因为这种模型生成的产品并不是客观的,而是需要人类去甄别和理解的主观内容。这为我们提供了大量的工作机会。正如隔壁神童一样,即使像爱因斯坦这样的天才也不完全正确,所以我们不必为ChatGPT的存在担忧。我认为,随着AI创造的内容越来越多,需要进行判断和验证的“好蛋坏蛋”的数量也会越来越多,这使得人类的工作量不断增加。虽然领域越来越细化,但这也考验了我们的综合能力。 其次,我不担心AI会对人类造成伤害,因为大型公司能够制造的大型模型很容易受到监督和审核。就像电影中的超人一样,一个超人俱乐部就能够监督和审核AI。因此,AI不会被毒贩和利用,只需要设置一些限制输入输出的“防护栏”,就像中国网信办和美国商务部正在做的那样。 真正可怕的是“自组织模型”——环境生成式AI。如果你得到了“新毒品配方”,就可以立即进行生产,如果一个普通的电脑就可以生成“2nm芯片工艺”,那风险就不可控了。每个人都可以进行无限创新,就像核武扩散一样。当意想不到的杀人武器充斥社会时,我们还能安全吗? 从根源上讲,这种反差的原因在于思维方式。为了实现AI创新的目标,我们惯常的人类思维认为能力是关键,因此我们为AI提供赋能,就像我们教育和培养孩子一样。因为信息的生成方法只能是他组织加工的方式——第三方进行生产。我相信,信息生产的方法决定着生产的结果。载体思维告诉我们环境对于人类和AI的成长来说至关重要,路径是在模拟信息生长的环境中进行探索。因为事实上,信息具有自我组织生产的能力,就像新冠病毒一样,表现出“生死二象性”,在某些载体(环境)中显示出“活生命”的特征。 对于让AI创新的两条路径和方法,我认为环境AI与LLM有所不同,它们生成的是映射物理世界的客观事实,而不是生成主观内容。当然,自我组织生产的缺点也非常明显,任何人都无法对其进行干预,这使得世界充满了不确定性。虽然环境AI的可靠性较高,但可控性和安全性极低。 总之,生产方法决定生产结果。那些具有信息自行演化能力的“环境AI”真正危险,它们才是威胁人类的公敌。而像ChatGPT和文心一言等LLM这类大型模型是由第三方进行组织和加工的,虽然备受热捧,但方法上有所欠缺。我思考着信息和它对于人工智能的意义,但有时候却感觉我对于信息的理解还是太过肤浅。我知道信息是由数字和符号等抽象符号构成的,但是它究竟是什么?有时候它就像是一个静态的东西,而有时却又像是拥有意识的生命体,这真的让我觉得非常困惑。 但是,即使我对于信息的本质认知仍处于“弱智”阶段,我依然相信信息是可以变得活跃的。那么问题来了,我们是否能够制造出这样的人工智能呢?我并不确定,但我相信只要我们持续不断地探索和突破,将来一定能够创造出更加先进、更加智能的人工智能。