12月21日电 (张燕征)近日,清华大学社会科学学院社会学系、中国科学院学部-清华大学科学与社会协同发展研究中心主办了“伦理立场、算法设计与企业社会责任”研讨会。中国科学院自动化研究所研究员曾毅在研讨会上指出,企业算法伦理与应用要做到“知行合一”。
“人工智能是一个看似智能的信息处理工具,但并不能像人类之间一样默认有一定的基线水平信任,人类的信任来源于长期的文化沉淀与关系网络。”曾毅表示,人们对于人工智能系统的起点应是不信任,随着交互增多,人们开始逐渐对人工智能系统与服务产生一定的、有条件的信任。
“企业算法伦理与应用要做到知行合一。”曾毅指出,在人工智能伦理和治理方面,一些企业设有伦理研究团队,并产生一些关于伦理研究的结果,但伦理研究结果并没有真正用来指导企业研发人工智能产品与服务,甚至产品团队与伦理团队存在较大鸿沟,如果是这样的话,长远来看企业很难赢得公众、政府、学术界的信任。
伦理原则的技术落地挑战重重,需要企业和学术界真正将伦理关切进行深度技术实践。曾毅举例说,《中华人民共和国个人信息保护法》、人工智能治理原则都谈到了平台应该给用户授权,比如用户可要求平台删除用户的数据,这件事看起来简单,但它在技术落地上几乎不具备可行性。
“数据库里可以实时删掉用户的数据,但只要是用人工智能算法的企业都知道,应用数据方法绝大多数不是放在数据库里面调用的,而是通过人工智能和机器学习模型学习,把用户特征学习到了以后,以参数的形式内化于人工智能模型当中。如果你采用类似于深度学习的神经网络模型,是很难把单个用户数据的影响从模型当中删除的。”曾毅称。
人工智能对于社会长远的影响也不可忽视。曾毅表示,人类的下一代是社会当中最脆弱的一代,因为当受到伤害的时候,他们没有成年人的表达欲望和能力。另外,即使他们受到人工智能产品与服务的伤害时,他们可能也不自知。这就使得他们更容易受伤害。
因此,曾毅表示,目前人工智能伦理原则中,应该明确告知用户现在交互的对象是人工智能,而不是人类,未来也不应该混淆人工智能与人类之间的界限。
“如果真正能够实现人类水平的人工智能,它必然是有真正的理解能力。假如它变成社会准成员,我们该怎么处理人工智能与社会准成员之间的关系?也许我们的文化现在还很难接受人工智能成为社会准成员,但是一旦向这个方向迈进,实现通用人工智能或涌现出超级智能,对现在的社会来说,是完全没有任何准备的,其存在的长远伦理问题未来三五十年时间未见得有解。”曾毅称。(APP)