推荐算法有伦理责任吗?
Posted 无聊小卖铺
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了推荐算法有伦理责任吗?相关的知识,希望对你有一定的参考价值。
今天这个题目似乎相当标题党。
在报纸作为主要信息传播模式的时代,信息传播是中心化的,大众能看到什么信息,取决于媒体的编辑。而在智能手机普及的今天,大众获得信息的来源已经从报纸,电视转移到了手机上。
在移动互联网的时代中,大众获得信息的方式,主要是通过新闻资讯类的应用软件。
目前市场上一些知名的应用软件,比如今日头条,一点咨询,UC等,出于用户习惯,大部分用户也只会装一个此类软件。
2017年12月用户安装新闻类应用数量分布
为了提升用户粘性,打开频次以及每天的使用时长,实际上所有的应用软件都会使用个性化算法来为用户推荐资讯。
以目前占有率最好的今日头条来说,平均的使用时长已经达到了1.5小时,加上头条系的其他应用,基本占用了一个人的几乎全部休闲时间。
当用户开始使用的时候,应用软件会采集用户的各种信息,比如点击的新闻类型,浏览的时长,甚至是在某一个广告图片上停留的时间等各种数据。
通过这些信息,就能知道用户喜欢什么信息,也就能更好的给用户推荐用户“感兴趣”的信息。这类技术细节其实已经很成熟,各家都有自己的团队在做相应的研究。
那么问题就来了:
只推荐感兴趣的信息符合伦理吗?
如果用户将自己的时间和阅读渠道都全部交给了一个应用,那么这个应用应当负责一些信息传播的伦理责任吗?
向坏的方向想,如果用户持续的在阅读一些导向性很强的文章,比如“读书无用论”,“各种偏方秘方”,此时的推荐算法实际上会给用户推荐更多这样的内容,从而将用户代入一个更偏执的信息环境中。
普通的阅读与推荐算法下的信息获取
这是很可怕的,用户会认为自己身边的人都和自己一样,认为“读书无用”,甚至会产生一些反社会的想法。
在正常的环境中,用户会接触到一些其他的信息来源,通过信息的比对,可以建立一个相对立体全面的认知。但在推荐算法的情景下,用户只能获得更多,甚至更强烈的同质化信息,这会加剧用户认知的片面程度。
为了解决这个问题,不少应用程序也给出了自己的一些解决方案,比如调整推荐的评估指标,将新鲜度加入到推荐的目标中。
朴素评估目标和加入新鲜度的评估目标
这样可以有效的增加用户的关注点,变相的降低了信息环境的偏执程度。但如图中所示,用户依旧很难看到与自己感兴趣的信息相悖的信息,而只是更多感兴趣的点而已。
当然更有效的措施,就是过滤与审核(毕竟有知名算法大厂招了2000个人员来审核内容的传奇事迹在)。
过滤审核是信息传播中遇到的老问题了,一旦通过过滤,可以极大程度的减少一些负面信息(这些信息是一些有社会共识的负面信息,比如邪教之类的)。
但谁来控制这个尺度,谁来控制那些信息应当被审核呢?亦或者说,是否有人能通过推荐算法决定大众应当获取到什么信息?
抛弃掉上面这个不能问的问题,回到推荐算法的本质上。
我们还是在已有信息的基础上,找出了用户“可能”喜欢的信息。这个过程无论如何都会造成信息量的大量衰减,在这个过程中,用户获得信息量的范围注定是会压缩的。
这样的技术在一些其他的领域,比如知识图谱,信息检索方面可以显著的提高人获得有效信息的速度。
但在新闻资讯这个方向,应用这类技术一定会遇到这个信息传播中的伦理问题。
毕竟推荐算法并不能像图像算法中的一些插帧技术或者图像补全技术,来“制造”一些新的信息出来,补全原来信息中的不足。
毕竟我们不能阅读一些“机器制造”出来的信息,对吧?
不,没准我们只是没有感知出来而已。
以上是关于推荐算法有伦理责任吗?的主要内容,如果未能解决你的问题,请参考以下文章