数字时代正在改变我们的日常生活和经济方式,人工智能、大数据分析、区块链和云技术给我们的生活带来了诸多便利,但同时,也带来了新的脆弱性,大数据杀熟、不当索取个人信息、游戏沉迷、算法歧视、平台算法控制等等。数字时代的伦理问题始终存在,我们应该怎么看待这些问题,又应该如何解决?

近日,中国社科院哲学所科技哲学研究室主任、研究员,科学技术和社会研究中心主任段伟文在RealAI主办的人工智能产业治理论坛上作了《走向社会信任与多方共建的人工智能伦理治理》报告,讨论数字时代的科技伦理和社会信任的危机与重建。

段伟文认为,数字时代带来了很多便利,但其实际上又非常脆弱。当数字技术作为新事物出现时,操作便捷、门槛低、效率提升,因其带来很多便利而使数字世代愿意尝试,人们对短视频、各种新的支付方式等没有信任赤字。但便捷的另一面是风险没有被充分认识。最后造成伤害时,就会严重破坏整个社会对科技的信任。

科技活动应该遵循哪些科技伦理原则?据科技部官网,7月28日,科学技术部科技监督与诚信建设司研究起草了《关于加强科技伦理治理的指导意见(征求意见稿)》,明确科技伦理的原则为增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明。

段伟文提出,如果希望这些伦理原则不成为伦理洗白工具而是真正落地,很重要的是一种工作假设,即科技创新的过程也是伦理创新的过程,也是伦理从0到1的过程。0就是原则,1就是落地,即技术创新要和价值创新同步。

段伟文认为,中国的数字产业的发展基本是奉行着鼓励创新、包容审慎的立场,所以虽然前些年制定很多法律,但存在一个悖论——严格立法、普遍违法、选择执法。在近几年,从短视频防沉迷再到应用软件不当的索取个人的数据,都有专项的治理,还有金融科技的治理,包括中止上市,相关机构或企业成立金融科技伦理委员会等,还比如跨境数据治理导致应用软件下架等等。当下是快速变动的时代,有很多的创新便利,同时也有巨大风险,段伟文以沙漏做比喻,他提出,以前政府管理部门只是处在沙漏的上方,没有感知到变化的迅速,但现在随着社会舆论,国际政治,国内外的格局等变化,政府会感到沙漏的巨大风险。段伟文总结道,在这样的情况下,政府的治理有两个特点。

第一,先发制人,一旦察觉风险,就将其扼杀在摇篮中。

第二,当察觉一种技术的滥用造成社会整体治理架构不能接受的风险时,就会追溯既往,即以往犯的错误也是不可接受的。

在这样的情况下,企业不仅仅需要根据合规不合规去思考问题,也需要思考对不对,去做出治理。段伟文认为,整个社会都有一个对科技活动的许可,这种许可不一定是有形的,但是存在的。

2014年,由于一家化工厂不断排出“臭鸡蛋”味,河南省新乡市获嘉县居民聚集抗议要求将化工厂迁离。化工厂、垃圾焚烧厂、核电站等的建设过程中出现的大量公众事件阻止这些科技的发展,段伟文将其解读为社会许可证,即公众答应与否。其提出,公众当下对人脸识别的宽容态度来自于还没有感知到重要风险,一旦出现重大恶性事件,公众的许可就会消失。

“那么一个很重要的问题是,要直面社会许可的挑战,不能只等到出现了恶性事件,再做治理,不能仅仅满足于合规,”当下面对这样一种既先发制人也追溯既往的治理格局,段伟文认为,企业应该更多考虑怎样重塑科技的社会印象,这是非常关键的。

在措施方面,段伟文提出,一个是技术上改进,比如隐私计算等,另一个是伦理设计,比如游戏的防沉迷机制,在知晓用户滥用技术时提醒其不要过度使用。更重要的是关怀伦理,即从用户的角度去关心他,“说个不恰当的例子,在有些赌场现在实行关怀伦理,当你输一百万的时候他会告诉你你剩下了20万,你别输了,你今天手气不好,坐下来喝喝茶等等。所以我们可以看到世界上的善和恶可能有各种各样的标准,但唯一的一种智慧就是我们做什么事情都要有个度,这是最重要的,”段伟文说。2021年1月5日,全国信息安全标准化技术委员会发布了《网络安全标准实践指南—人工智能伦理安全风险防范指引》也明确了四大责任主体,研究开发着、设计制造者、部署应用者、用户。

“技术是价值中立的,但它是需要通过努力实现的,真正意义上的创新应该面向用户,面向社会价值,是整体性的创新,而不只是增加财富,加强资本。”段伟文呼吁,“我们要超越技术解决主义,当下有很多手段能解决伦理问题,但更重要的是超越这些技术手段,用更广泛的社会关怀进行补充。”段伟文进一步阐释,从疫情防控期间可以看到,很多技术手段的应用需要人的关怀,比如手机的适老化,这些都是很有意义的。