康斯坦丁:我们为什么不愿意相信AI?

科技 2018-01-26 08:55        

人工智能——即AI已经变得越来越聪明,甚至能够预测未来。比如警察可以用AI来提前预判出犯罪的时间或地点,医生可以用AI预测病人最有可能心脏病发作或是中风。甚至研究人员还试图为AI添加上更多的想象力,因为其能够规划出人类所预想不到的结果。

通常来说,在大众的生活中很多决策都需要事先进行一定的预判。不过随着AI的进步,其预测比人类更加优秀。然而,随着AI技术的进步,我们似乎仍然缺乏对AI的信心。最近就有研究表明,人们不喜欢依赖AI,更愿意去相信人类专家——即使某些专家是错误的。

你相信AI吗?

IBM的超级计算机项目Watson给出的癌症治疗方案,大部分时候与医生的建议十分吻合。在印度进行的一项研究显示,在治疗肺癌时Watson给出的治疗建议96%的情况下与医生的方案相吻合;治疗直肠癌和结肠癌时,与医生建议的吻合率也分别高达93%和81%。而且,Watson在临床试验中筛选乳腺癌和肺癌患者的速度要比人类快78%。截至目前,超过14000名患者根据其计算已收到相关的治疗意见。

但是当医生与Watson互动时,他们发现自己处于相当复杂的局面。一方面,Watson给治疗提供了指导,但其实医生并没有看到有多大价值。因为Watson做出的这些指导,医生也早就知道。另一方面,如果Watson产生出反驳专家的意见建议,那么医生通常会得出结论——Watson是不能胜任的。因为Watson无法解释为什么它的治疗是可行的,它的机器学习算法是不被充分理解的,进而造成了更多的不信任和怀疑。最终,导致很多医生忽视了AI建议,并坚持自己的专长。

沃森所面对的问题是,医生根本不信任它。人类的信任往往是基于对可靠性经验的理解,有助于创造安全的心理感受。而AI是全新的事物,绝大多数人都对其不熟悉。因此,即使可以在技术上解释(而这并非也总是如此),AI的决策过程通常还是让大多数人无法理解。不了解的后果就是会导致焦虑,使人类觉得自己正在失去控制力。

社会上有一个新的AI分歧?

如果我们希望AI能够真正造福于民,就需要找到一种方式来让AI获得人们的信任。当然,要做到这一点,首先要清楚目前人们对AI到底有着怎样的态度。面对逐渐有望落地的AI,似乎在社会上也有了分歧。

有外国专家在向不同的人播放AI相关科幻片后,就向他们询问有关人工智能、自动化等问题。他们发现,乐观主义者更倾向于积极地拥抱AI。而怀疑者则变得更加极端,甚至变得更加谨慎,不欢迎AI的到来。

这表明,人们对AI的偏见是一个根深蒂固的个人倾向。由于参与报道AI的媒体越来越多,正反意见也在博弈之中,进而就会直接影响人们对AI的认知。一部分人会认为AI将让生活更美好,另一部分人则认为AI会让社会走向灭亡——这样的分歧将会越来越严重。

解决AI“信任危机”就要保持透明度

但不管怎么说,AI始终还是要向前发展的。而要解决AI的“信任危机”,就必须从多方面着手。目前,部分专家已经有了提高人们对AI信任度的方法。最基本的,就是要尽快习惯AI未来出现在我们的生活中——使用的越多,就会越信任AI。就像当年互联网出现之后,很多人也持怀疑态度。但随着互联网全面落地之后,人们就对其完全没有戒心了。

另一种解决方案则是打开机器学习算法的“黑盒子”,让其更加透明,展示出AI是如何工作的。这样一来,能够让帮助人们对其有更好地了解。虽然绝大多数人不需要了解AI系统复杂的内部运作,但如果展示出较为关键的运作信息,人们会对接受AI融入生活持更加开放的态度。

不是我们不愿意相信AI,只是对新生事物的一种本能“恐惧”罢了——就像原始部落的人还认为照相机能吸走“灵魂”一样。当AI逐步普及后,对它的质疑自然也就越来越少。(康斯坦丁/文)

(本文仅代表作者观点,与本网无关。)


发表评论