发布于:2023-02-18 09:16 阅读次数:
谷歌首席布道者、“互联网之父”温顿瑟夫对那些渴望使用聊天人工智能进行商业交易的高管们说:“不要这样做。”
周一在加州山景城举行的一次会议上,CERF恳求与会者不要仅仅因为“这是一个热门话题”就急于投资对话式人工智能。这一警告正值ChatGPT人气飙升之际。
"这是一个道德问题,我希望你们中的一些人会考虑这个问题。"“每个人都在谈论ChatGPT或谷歌的ChatGPT,我们知道它并不总是按照我们想要的方式工作,”瑟夫周一告诉会议人群。他指的是谷歌上周宣布的巴德互动人工智能。
他发出警告之际,谷歌、Meta和微软等大型科技公司正试图找出如何在对话式人工智能领域保持竞争力,同时快速改进一项仍然经常出错的技术。
Alphabet董事长约翰汉尼斯当天早些时候表示,这些系统还远未得到广泛应用,它们仍然存在许多不准确和“有毒”的问题,甚至需要在公众测试产品之前得到解决。
自2005年以来,CERF一直是谷歌的副总裁和“首席互联网传道者”。他被称为“互联网之父”之一,因为他参与设计了一些用于建立互联网基础的架构。
CERF警告说,不要仅仅因为技术“非常酷,即使它并不总是正确运行”,就进行投资。
“如果你认为,‘老兄,我可以把这个卖给投资者,因为这是一个热门话题,每个人都会向我扔钱’,那就不要这么做。”瑟夫说,这赢得了观众的笑声。“你想得真周到。你是对的。我们不能总是预测这些技术会发生什么。坦率地说,大部分的问题是人——就是为什么我们在过去的400年里没有改变,更不用说过去的4000年了。”
“他们会寻求做对自己有益的事,而不是对你有益的事。”瑟夫继续说道,好像指的是人类普遍的贪婪。“所以我们必须记住这一点,并考虑如何使用这些技术。”
瑟夫说,他试图让其中一个系统在每句话的末尾附加一个表情符号。它没有这样做。当他告诉系统他注意到这一点时,它道歉了,但并没有改变它的行为。"我们离意识或自我意识还有很长的路要走."他在谈到聊天机器人时说。
他说,这项技术说它会做什么和它已经做了什么之间存在差距。“这个就是就是问题。你分不清雄辩的“回应”和准确的“回应”。
约瑟夫举了一个例子,当他要求一个聊天机器人提供关于他自己的传记时。他表示,机器人给出的答案是真实的,即使包含不准确的内容。
“在工程领域,我认为像我这样的工程师应该负责找到一种方法来驯服其中的一些技术,使它们不太可能造成伤害。”他说,“当然,根据应用的不同,一个不太好的虚构故事是一回事。给某人提建议…可能会有医疗后果。弄清楚如何把最坏情况的可能性降到最低非常重要。”