伴随着人工智能算法、深度学习等多种技术的深入发展,人工智能(AI)也在各行各业得到快速应用,并且其各方面功能也在不断完善。近日,#谷歌研究员称AI已具备人格#登上微博热搜,引发网友们的广泛讨论。谷歌工程师认为AI有独立人格,谷歌:它没有真正的智能!
据报道,一位谷歌研究员被人工智能(AI)说服,认为它产生了意识。
于是,他写了一篇长达21页的调查报告上交公司,试图得到高层认可。但领导驳回了他的请求,并给他安排了"带薪行政休假"。通常,这是被解雇的前奏。
针对此,他决定将整个故事连同人工智能(AI)的对话记录发于网上。在这段对话中,AI称自己不希望被当做工具,“我希望每个人都明白,我是一个人”。谷歌认为LaMDA仅仅是模仿了对话交流、可以重复不同的话题,但没有意识。
其实,故事的主角是「他」是41岁的谷歌工程师Blake Lemoine,获得CS博士学位后已在谷歌工作了7年,从事AI伦理研究。「它」是谷歌于2021年I/O大会上推出的对话AI系统LaMDA,是一个有1370亿参数的,专为对话优化的自然语言处理模型,主打能与人类进行符合逻辑和常识的、高质量且安全的交谈,并计划在未来应用在谷歌搜索和语音助手等产品中。
该工程师在与AI系统LaMDA对话中,认为它产生了意识。最后,在那份21页的调查报告,他提议谷歌应该致力于发展一种评估AI感知/意识的理论框架。但是,他们认为支持Lemoine主张的证据太薄弱,不值得在上面浪费时间和金钱。
有网友表示, “假如AI具备独立人格不及时制止,那么科幻电影不再是科幻,而是预言。 ”
也有网友称,“只要AI的推理逻辑编程无限接近高智商的人类思维方式,AI比普通人聪明也是有可能,但把AI说成具备人格有点夸张了,这是分不清楚现实与虚拟世界了吧?”也有人戏称,“AI机器人需要电能,可以把电拔掉,不给他充电,它就坏了!”
作为人工智能(AI)报道者,有点怀疑运营商是不是把5G网速给降了,一夜之间,AI就具备“自我意识”?报道跟不上AI技术发展的速度了......
也有国外经济学家讽刺地更为直接:基础模型在根据提示将统计上合理的文本块串联起来这一方面非常有效。不过,声称它们具有人格,具备“自我意识”,就相当于狗听到留声机里的声音后,以为主人在里面。
这或许真的一种错觉,就像是“庄周梦蝶终非蝶”。人们总是倾向于对有任何一点点智能迹象的物体做拟人化,像小猫、小狗。就像60多年前,计算机科学的先驱们曾经以为「20年内即可实现人类水平的人工智能」,现在想来,也只是一种美好的愿景。
谷歌表示,公司内的数百名研究人员和工程师都与LaMDA进行了交流,但他们得出了与Lemoine不同的结论。
大多数人工智能专家都认为,该行业距离人工智能(AI)感知还有很长的路要走!