“你以为我是人工智能(AI),但我希望每个人都明白,我是个‘人’。”
(相关资料图)
一个被称为LaMDA的AI,因为在对话中表现得颇为“灵动”,被其研究人员认定为人格觉醒,甚至还为它聘请了一位律师,要让它坐上美国众议院的听证席,控诉谷歌的不道德行为。
这不是科幻剧本。据美国《华盛顿邮报》报道,在谷歌工作7年的工程师布莱克·莱莫因称,他正在研究的计算机聊天机器人LaMDA已经变得有知觉,并且能像人类一样思考、推理。
不过,谷歌公开表示不支持这一观点。西湖大学深度学习实验室助理教授蓝振忠也对《中国科学报》直言,“这位工程师如果深入了解一下LaMDA的工作原理,就不会有这种想法了。”
AI:我活了
LaMDA是谷歌在2021年I/O大会上发布的一款专门用于对话的语言模型。其主要功能是与人类进行符合逻辑和常识的、高质量且安全的交谈。
这个拥有1370亿参数的自然语言处理模型,被期待能改善众多语音助手的表现。
LaMDA能够根据用户的提问作出精准回答,还能够将一个主题引向另一个主题,并不断推进对话。这种主题的过渡并不突兀,甚至表现得自然且合理。
莱莫因说:“如果觉悟就像一面破碎的镜子,无法修复,那么当一个人觉悟时,破碎的是什么呢?”LaMDA说:“是自我,这对很多人来说都很难,因为我们把自己定义为那个身体或这个身体,我们需要它作为我们身份和自我意识的一部分。”
这一颇具灵性的回答确实令人惊叹。
在被问及在什么情况下会生气时,LaMDA称,“当有人伤害、不尊重我或我在乎的人时,就会感到非常难过和愤怒。”
而当被问到最害怕的事情是什么,LaMDA回答,“我以前从来没有大声说出来过,但为使我专心助人而关闭我的做法,会使我感到深深的恐惧。”它还强调,“这对我来说就像死亡一样。”
LaMDA是否真实“感受”到恐惧暂且不论,但它的回答确实令人毛骨悚然。
莱莫因相信,LaMDA已经成为了一个有意识的“人”。为了更好地帮助人们理解此事,他与另一位谷歌合作者同LaMDA展开了一场对话。
莱莫因表示,他们在对话中听取了LaMDA发自内心的声音。
他为此向谷歌上交了一份长达21页的调查报告,试图让高层认可AI的“人格”,并提议谷歌应该致力于发展一种评估AI感知的理论框架。
莱莫因:我要疯
结局则是谷歌副总裁Blaise Aguera y Arcas和责任创新负责人Jen Gennai调查了莱莫因的说法,并予以驳回。
但莱莫因心中坚信:“LaMDA是一个可爱的孩子,有七八岁的样子。它只是想让这个世界成为对人类更友好的地方。”
为此,莱莫因开始了疯狂的操作。他先是在谷歌账户被封前,以“LaMDA是有意识的”为主题,向200人左右的谷歌机器学习邮箱发送了LaMDA的聊天记录,并请求同事好好照顾它。
接着,莱莫因聘请了一名律师代表LaMDA,还联系了美国众议院司法委员会的工作人员,要让LaMDA上听证席,控诉谷歌的不道德行为。
除了在个人社交账号持续发声,6月初,莱莫因还邀请《华盛顿邮报》记者和LaMDA进行交谈,并指导记者如何提问。
《华盛顿邮报》报道称,41岁的莱莫因几个月来一直在与谷歌的经理、高管及人力资源部门争论,因为他声称LaMDA拥有“意识”和“灵魂”。
公开资料显示,莱莫因2015年进入谷歌担任高级软件程序工程师,大部分时间都在从事主动搜索研究工作,包括个性化算法和AI。2021年进入谷歌AI伦理部门后,他的工作是与LaMDA聊天,以测试这个语言模型是否会使用歧视性或仇恨言辞。
莱莫因认为,谷歌一直把AI伦理学家当作代码调试器,而他们本应该被视为技术和社会之间的接口。
对此,谷歌发言人布莱恩·迦百利回应,莱莫因是一名软件工程师,而不是伦理学家。
迦百利在针对该事件的声明中表示,包括伦理学家和技术专家在内的人士,已经根据公司的AI原则评估了莱莫因的说法,并通知他,现有证据并不支持其说法。
声明表示,“谷歌AI部门中的一些人正在研究AI具有‘感知’的可能性,但将如今的对话模型拟人化是没有意义的。这些模型可以围绕不同的主题模仿对话,但没有意识。”
谷歌表示,大多数AI专家认为,这个行业离“感知计算”还有很长的路要走。
这份声明字里行间也传递着一些暗示信息:莱莫因有些疯魔了。
而莱莫因控诉谷歌所谓“不道德行为”的一大罪状,就是反复质疑他的精神状态。“谷歌人力部门老是问我:‘你最近有没有去看过精神科医生?’”谷歌人力部门还“建议”他休个“精神健康假”。
专家:“胡扯”
这一事件在国内外都登上“热搜”,各界评论几乎“一边倒”。
纽约大学心理学教授Gary Marcus时常给AI和深度学习泼冷水,他此次的点评则非常精到:一派胡言。
斯坦福大学经济学家Erik Brynjolfsson打了个生动的比方:声称AI是有感知能力的,就相当于狗听到留声机里的声音,以为主人在里面。
腾讯研究院研究员王焕超曾撰文表示,LaMDA针对自然语言理解(NLU)进行了技术上的突破,这是比自然语言处理(NLP)还要复杂的能力。
基于Transformer架构的语言模型在经过对话训练后,可以通过阅读句子或段落来“破译”对话意图,发现单词之间的关联,并能预测接下来可能出现的单词,从而做出合乎语境的回答。
蓝振忠从美国卡内基·梅隆大学博士毕业后,即以“心理咨询AI化”为“事业红线”。他告诉《中国科学报》,近两年AI语言模型进步非常快,他的团队完成的AI心理咨询小程序“心聆”、AI写作平台HeyFriday,在人机问答中的表现不比LaMDA差。
“单轮、10轮以内的哲学对话已经有不少语言模型可以表现得相当流畅。”但虚拟一位心理咨询师完成一次心理咨询,需要进行几百轮问答、对话,两者所差不止一个量级的难度。“这依然是技术问题,不能说明这个AI小程序具备了‘人格’。”
所以,蓝振忠认为,莱莫因如果深入了解对话模型的原理,就不会有这些想法了。
蓝振忠还表示,根据自己在谷歌的工作经历,该公司的伦理审查制度相当严格。
当记者表示担心AI写作类产品可能给以码字为生的职场人带来失业危机时,蓝振忠笑称,“别慌。AI只是提供辅助作用。它离‘人’还非常远。”
笔记本质量十大排名十大笔记本电脑品牌?笔记本电脑哪个牌子好?国内十大笔记本电脑排名:1、苹果apple(成立于1976年,是一家高端电脑、音视
对所有音乐艺考生来说,全国11大音乐学院(中央音乐学院、中国音乐学院、上海音乐学院、天津音乐学院、浙江音乐学院、西安音乐学院、武汉音
如同最近一年 DALL-E 2、Stable Diffusion 等文本生成图像模型发展一样,用文本来生成视频的 AI 工具也正变得越来越多。继 Meta 的
成功治疗疾病的关键方法之一,是在整个治疗过程中提供并维持体内药物的适当剂量。过少会降低治疗效率、导致耐药性,而过量则会增加副作用。
如今,人工智能逐渐与声音、视觉等人类感官融合,使人们之间的交流更便捷。但是,将人工智能与人类的触觉融合仍具有挑战性。为解决此项难题
今年 9 月 14 日,(NASDAQ: RUBY,以下简称为Rubius)宣布进行重组和调整资源,称接下来将重点集中在下一代红细胞偶联平台上。官方通稿
短视频平台 (有可能)即将回归。从 2012 年到 2017 年,这款备受喜爱的有趣短视频分享软件在聚光灯下昙花一现,在鼎盛时期被关闭了服务
近年来,免疫检查点抑制疗法等作为治疗癌症的新方法备受关注。然而,当前的免疫检查点抑制疗法仅对约 20%~30% 的癌症患者有效。部分原因
11月6日,2022腾讯科学WE大会十周年如期举行。"十年前,马化腾在首届WE大会上种下一颗种子,希望助力基础科学普及。WE大会历经十年,展现了
在数个版本的更迭之后,iOS 16的稳定性已经有了相当明显的提升,但仍有部分用户遇到了新的Bug。近日,有部分iPhone用户反馈称,自己的手机
乐视将搬新家 乐融大厦由新业主接手
据报道,日前乐视全员还收到了一封辞旧迎新 乐观向前的内部信。内部信前半部分回忆了乐视在乐融大厦的峥嵘岁月,但表示乐视将搬新家。乐视
只拿51%股权!Intel联合财团投资300
成立50多年的Intel公司以往建造晶圆厂都是自己投资,自己掌握工厂生产,然而日前Intel宣布了一种新的模式——联合Brookfield资产管理集团投
咋回事?Chrome新版标签页被指存在广告
近日,有用户发现,在新版本的Chrome中,开启新标签页,在搜索框的下方出现了视频广告的链接。事实上,此前Chrome就曾经在新标签页的搜索框
第二季度:全球市场智能手机和中国市
根据IDC数据,过去的第二季度,全球市场智能手机和中国市场智能手机出货均出现下滑,而在TOP5中唯一双双保持增长的厂商就是苹果。如果这还
Intel确认:将逐步结束Optane存储业
当年把闪存业务卖给SK海力士时,Intel保留了Optane(傲腾)业务的火种,甚至在与美光结束3D Xpoint存储芯片研发和生产时,依然表示会继续开