本期节目的嘉宾是我们的朋友Aaron。Aaron在科罗拉多大学博尔德分校获得信息科学博士学位,主要研究领域包括内容审核、社会计算、网络社区和人机交互。 社交平台承载着很多信息和观点,其中一些会包含有危害的内容或者谣言。这些内容不仅需要用户来甄别,更需要平台来审核、监管。内容审核是计算机科学、人机交互方向的新型领域,作为这个领域中的研究者,Aaron从社会角度出发,在他的学术研究中聚焦内容审核和平台监管隐藏在决策后面的逻辑和考量:什么内容需要被审核?平台如何实现监管?平台需要差异性地对不同的群体、国家或地区进行监管吗?在平台制定监管政策的过程中,需要考虑哪些因素?平台又如何理解同时作为被服务对象和被监管对象的用户?从Aaron的研究开始,我们在这期节目中和他聊到了社交网络偏见、平台提供的服务、监管政策、互联网研究的发展等话题。
本期嘉宾
Aaron
内容提要+精彩预告
02:00 Aaron的研究:从社会角度看待content moderation(内容审核)
07:30 社交网络偏见是算法的问题还是人的问题:对第三期讨论内容的再讨论
11:46 是观点极端化了还是用户群体多元化了?
12:15 什么内容需要被监管:特朗普推特治国带来的新挑战
“平台移除暴力内容还是让公众知道可能的危险,这是一个需要被讨论与平衡的东西。”
17:20 不同的监管的方式,哪种最有效
19:50 平台内容管理的两种思路:惩罚vs感化
“一些学者在构思通过修复性正义管理平台:通过感化让违规的人认识到他们所造成的伤害促进和解,达成你好我好大家好的结果。但因为实行起来的效率问题,当前主流的监管方式还是删帖和封号。“
“脸书现在有大约20万用户,大概2万人负责所有的内容审核。平台现在面对的最大的问题是如何规模化内容审核。“
“造谣一张嘴,辟谣跑断腿。平台方已经跑断了很多人的腿确依然不能让绝大多数人满意。“
25:00 不同平台提供的服务、对用户的理解
“内容审查是一个过程,需要很大的人力物力和资源。“
29:00 平台是否对不同群体差异化监管
32:40 平台是否对不同的国家和地区差异化监管:平台如何定义“文化”的不同?Postcolonial computing(后殖民计算)
36:30 问卷调查结果:不同文化中被认为有危害的行为是否一致?
“我们总结了66类有害平台信息,让世界不同地方的人把这些信息的严重程度排序,发现对于同样一类信息,大家对其严重程度排序的差异可以达到44位。“
39:32 小结
40:40 平台如何制定监管政策:对user-centered design(以用户为中心设计)的挑战:用户到底知不知道什么是最好的?
“初步的证据显示,根据用户群体制定差异化的平台监管政策可能是有必要的,但是具体如何执行仍需要我们对更多边缘群体的深入研究。“
“内容审核打破了以往以用户为中心的设计的假设。我们是不是只有听取用户建议才能满足用户需求?在内容监管上,用户能准确的表达他们的需求么?“
44:00 未来工作、对未来研究的展望
“北美学术界对于内容监管的关注度大概从2017,18年才开始。“
46:20 内容监管的发展历史 — 最初的网络社区,反内容审核
52:20 内容审查:关于善恶
“线上的内容审查越来越变成一个关于善恶本质的讨论,但社交媒体在一开始被发明的时候并没有意识到自己在多年以后要承担这么大的责任,定义好与坏善与恶以及什么是歧视。“
58:00 总结+结束语
片头片尾音乐
《Sunrise at Seaside》by 王乾
封面图片
Photo by Volodymyr Hryshchenko on Unsplash
双重意识是一档「让我们认识到那些我们以为此时此刻与我们生活需求没有关联的东西其实和我们紧密相关」的播客节目。你可以在各大播客平台及社交平台搜索"双重意识DoubleConsciousness"找到我们,关注我们并收听我们的节目、给我们留言、提供反馈意见。
沪ICP备06026464号-4 网络文化经营许可证
沪网文[2014]0587-137号
信息网络传播视听许可证:0911603
©2011-2019 qingting.fm ALL Rights Reserved.
应用名称:蜻蜓FM | 开发者:上海麦克风文化传媒有限公司