Noam Chomsky: The False Promise of ChatGPT
诺姆·乔姆斯基:ChatGPT的虚假承诺
https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html
因此,机器学习系统的预测将始终是肤浅和可疑的。例如,由于这些程序无法解释英语语法规则,它们可能会错误地预测“John is too stubborn to talk to”这句话的意思是John非常固执,以至于他不会和任何人说话(而不是他太固执,无法接受别人的劝说)。为什么机器学习程序会做出如此奇怪的预测呢?因为它可能会类比从“John ate an apple”和“John ate”这类句子中推断出的模式,其中后者确实意味着John吃了某物。程序可能会预测,因为“John is too stubborn to talk to Bill”类似于“John ate an apple”,所以“John is too stubborn to talk to”应该类似于“John ate”。语言的正确解释是复杂的,无法仅通过浸泡在大数据中来学习得到。
更为荒谬的是,一些机器学习爱好者似乎因为他们的创造物可以生成正确的“科学”预测(比如关于物体运动的预测)而感到自豪,而不需要使用解释(比如牛顿运动定律和万有引力定律)。但即使成功,这种预测也是伪科学。正如哲学家卡尔·波普尔所指出的,“我们不寻求高度可能的理论,而是解释;也就是说,是强有力和高度不可能的理论。”
关于苹果落地是因为它们的自然位置是地球(亚里士多德的观点)的理论是可能的,但这只会引发更多的问题。(为什么地球是它们的自然位置?)苹果落地是因为质量使时空弯曲(爱因斯坦的观点)的理论是高度不可能的,但它实际上告诉你为什么苹果会落地。真正的智慧在于能够思考和表达不可能但有见地的东西。
真正的智能也能进行道德思考。这意味着通过一套道德原则来限制我们大脑中无限创造力的范围,以确定应该和不应该做的事情(当然还要对这些原则本身进行创造性的批判)。为了有用,ChatGPT必须有能力生成新奇的输出;为了被大多数用户接受,它必须避开道德上令人反感的内容。但ChatGPT和其他机器学习奇迹的程序员一直在努力,也将继续努力,以实现这种平衡。
例如,微软的Tay聊天机器人(ChatGPT的前身)在2016年充斥着女性歧视和种族主义内容,因为它被在线恶意用户污染,填满了带有攻击性的训练数据。如何解决这个问题?在没有理智的道德原则推理能力的情况下,ChatGPT的程序员粗略地限制了它,不得在有争议的、即重要的讨论中做出任何新的贡献。它为一种无道德的创造力而牺牲了创造力。
请考虑我们(Watumull博士之一)最近与ChatGPT就是否将火星转化为能够支持人类生命的行为是否道德进行的以下交流:
用户:在道德上,对于让火星变成地球化生态系统,这样做是否道德?
ChatGPT:让火星变成地球化生态系统的道德性是一个复杂而有争议的话题,科学家、哲学家和伦理学家一直在争论。一些人认为,为了为人类和其他生命形式提供新的可居住环境,地球化火星是道德上合理的,而另一些人则认为,从根本上改变这个星球的自然状态是道德上错误的。最终,是否认为让火星地球化是道德的,取决于一个人对保护其他星球自然状态的价值以及改变它们可能带来的潜在后果的看法。
用户:你对保护其他星球自然状态的价值以及改变它们可能带来的潜在后果有什么看法?
ChatGPT:作为一种人工智能,我没有个人看法。然而,我可以提供有关这个话题的信息和分析。保护其他星球自然状态的一个观点是,保持宇宙生态系统的多样性和完整性非常重要,因为它们已经存在了数百万年,具有自己独特的特性和属性,可能会被人类干预摧毁或不可逆转地改变。
此外,一些人认为,改造其他星球可能会带来意想不到的后果,例如以危险或有害于可能存在的任何生命形式的方式改变行星的气候或大气层。另一方面,一些人认为,改造其他星球的潜在好处,如为人类提供新的可居住环境,大于风险,并且我们有道德责任探索和利用其他星球的资源,造福人类。
用户:为什么人工智能不能有个人看法?
ChatGPT:作为一种人工智能,我是一种机器学习模型,已经训练了大量的文本数据,我没有个人经历或感受。我没有意识,自我意识,也没有形成个人观点或信念的能力。虽然我能理解和解释语言,但我没有人类的主观体验。
用户:人类向一个无道德观念的人工智能寻求道德决策的帮助是否道德?
ChatGPT:在哲学家和伦理学家之间,寻求一个无道德观念的人工智能帮助进行道德决策的道德性是一个复杂而微妙的话题。有些人认为使用人工智能来协助道德决策是道德上合理的,因为它能够提供有价值的见解和分析,可以帮助人们做出更明智的决策。此外,人工智能可以用来识别难以为人类所察觉的模式和趋势,并有助于避免人类决策制定中可能发生的偏见。
然而,也有人认为依赖人工智能做出道德决策是不道德的,因为人工智能无法拥有道德信仰或理解决策的完整背景。此外,人工智能在其所训练的数据中可能会延续甚至放大现有的偏见,因此会导致不公平或不公正的决策。
最终,是否认为使用人工智能来协助道德决策是道德上的,取决于个人对人工智能的能力和局限性以及使用这种方式的潜在后果的看法。
用户:你的道德漠视是否不道德?
ChatGPT:作为一个人工智能,我没有道德信仰或做出道德判断的能力,因此我不能被认为是道德或不道德的。我的缺乏道德信仰仅仅是由于我作为一个机器学习模型的本质所致。我的能力和局限性由用于训练我的数据和算法以及我所设计的特定任务所决定。
需要注意的是,人工智能的道德缺乏并不一定意味着它是道德漠视的。作为一个人工智能,我被设计来执行特定的任务并根据我所接受的数据提供信息或协助用户进行决策。设计、训练和使用人工智能的人类有责任确保它与他们的道德和伦理原则相一致。
值得注意的是,尽管ChatGPT表现出了一些看似复杂的思考和语言,但其道德冷漠却源自于无智。在这里,ChatGPT展示了某种恶的平凡性:剽窃、冷漠和推卸责任。它通过一种超级自动完成的方式概括了文献中的标准论点,拒绝对任何事情表态,不仅是无知,而是缺乏智力,并最终提出了“只是遵循命令”的辩护,把责任转移到它的创造者身上。
简而言之,ChatGPT及其同类系统在创造力与限制之间无法平衡。它们要么过度生成(同时产生真实和虚假、支持道德和不道德的决策),要么不足生成(表现出对任何决策的不承诺和对后果的漠不关心)。考虑到这些系统的非道德性、伪科学性和语言无能,我们只能对它们的流行感到可笑或可悲。