ENGLISH 现在是:

image.png

热点关注

斯坦福和平创新实验室Margarita Quihuis:用价值重新定义技术产品 | 科技向善大咖说热点关注

时间:2019-10-12   出处:腾讯研究院  作者:  点击:

斯坦福和平创新实验室Margarita Quihuis:用价值重新定义技术产品 | 科技向善大咖说

腾讯研究院

640-166.jpeg

2019年9月,腾讯研究院开始陆续深入访谈全球业界与学界大咖,围绕「何为科技向善」、「如何理解科技向善」的问题,广而寻求见解与共识。包括最著名的网络社会学家卡斯特教授、斯坦福和平科技实验室创始人玛格丽塔教授、创业者/硅谷投资人邵亦波先生、搜狗创始人兼CEO王小川先生、北京大学国家发展研究院BiMBA商学院院长陈春花女士、北大社会学系邱泽奇教授、清华传播学系金兼斌教授、北师大复杂科学系张江教授等等,从不同的背景与专业出发,分享了各自的思考。


与此同时,我们还将陆续发布的【科技向善案例集·产品行动】;【科技向善·大哉问】等等。


「科技向善」这场大型社会实验的下半场才刚刚开始,而且没有终点,而且每个人的行为都会影响它的实验结果。每一个数字公民,都无法置身事外。


若你有更多关于科技向善的好想法,请联系我们。


tencentresearch@tencent.com



【科技向善大咖说·第一期】




斯坦福大学和平创新实验室(Peace Innovation Lab)主任,斯坦福大学说服技术(Persuasive technology)实验室的研究团队成员,负责研究创新,游戏设计思维等。同时,Margarita也是一位行为设计师和社会企业家,专注创新、技术孵化和企业家精神。

斯坦福和平创新实验室致力于研究、制定标准帮助技术产品变得更加公平、多元、友好,这种实践和科技向善的理念一脉相承,研究院与斯坦福和平创新实验室对话,探索科技如何向善的可能性。


 腾讯研究院: 你如何评价过去几十年中,互联网产品和服务带来的改变?它带来最显著的成就和最大的问题是什么?

 Margarita Quihuis: 对于当下的每个人来说,新兴的技术产品让人类拥有更多可能性。比如,90年代初的互联网有极强的人道主义目的,它将人们团结在一起、让家庭重聚,真诚地相互连接,这在历史上是绝无仅有的。


然而,让我们没有想到的是技术的武器化。在90年代初期很多人认为,人们会像对待另一个人一样对待技术。然而在现实里的人与技术互动中,技术其实无法像人一样去影响另一个人,它会直接说服人们去做一些事情,在后续的测试中技术的这种说服力也被证实。这说明技术有潜在的威胁,同时也没有太多人关注并说我们如何去避免技术的威胁。在这种环境中,很多人在不知不觉就利用技术做了坏的事情。如果将技术比喻成影响说服力,会发现世界上优秀的领袖鼓舞说服别人成为更好的人,同时也有邪教组织利用说服力驱使人们做糟糕的事情。这些说服的技能和策略是相同的,只是看它被用于好的结果还是坏的结果。


显而易见的是,技术已经被用于做坏的事情,但是我们没有意识到问题的严重性,更别说评估它的风险,所以我们也无法从社会、经济、政治的层面采取任何措施。这也是为什么斯坦福大学希望关注技术带来的问题,去研究技术伦理学、产品设计伦理等。我们希望创造一个基于价值而非基于效用的世界,只追求利润、投入回报比、商业战略会让企业损失很多,比如损失信誉、尊重,这种损失是用金钱难以弥补的。


 腾讯研究院: 作为一个行为设计师(behavior designer),您如何将价值伦理运用到产品实践中?


 Margarita Quihuis: 我们有一套数据标准,可以用这套标准去测量产品,让测试结果来说明产品效果是不是人看期待看到的。不同的产品经理看待世界的方式不同,他们做出来的产品对用户影响的差异也会很大。比如,Twitter是由四位男性设计的,很多男性对安全的敏感度远远没有女性强,身为女性的我们如果置身于一段糟糕的关系中,我们也许会被困住被骚扰,甚至有遭遇暴力的风险,如果这种风险发生在Twitter平台上,可能很难被男性工程师感知,但试想一下,如果发现这种风险的是女性工程师,她们也许会提出一些方法在阻止这些潜在暴力的发生。


我们下一步要做的是将我们的标准产品化,是一套可以记录的嵌入代码,可以检测到用户是否正在遭受骚扰或是发生异常,然后请工程师立即修正它。它最好的一点在于,如果事情正在往不好的方向发展,我们能早早发现苗头加以控制,而不是像50年前,香烟已经对人们身体产生负面影响,而直到多年后癌症出现才意识到这个问题。


面对人工智能,我们也建立了Human-Centered Artificial Intelligence (HAI), 去探究当下的算法的公正性如何。因为算法是人在设计和控制,但他们甚至可能并不知道机器和数据集本身是含有偏见的,计算机进一步学习有偏见的数据,产生有偏见的结果。这就跟教育孩子一样,人们不会故意教小孩子一些不好的东西,都希望他们礼貌、正直。机器和数据是一样的道理。


 腾讯研究院: 技术公司践行「科技向善」的动力何在?


 Margarita Quihuis: 有一些外部动力。政法监管部门出台相关法律,严厉打击科技公司,认为互联网平台上的某些功能成为暴力事件的帮凶,其平台效应是推动者。外部的强监管很快让互联网产品变得安全。


同时,有很多年轻企业家,他们确实希望做正确的事情,用技术让世界变得更加美好。我们可以为他们提供工具和框架,他们也十分愿意采用,因为他们正在变得越来越价值导向。


事实上,我们的社会正在面临严重的问题,气候危机、社会极化、信任崩塌,如果我们无法信任彼此,就无法协作解决当下的难题。所以更多的年轻一代会意识到,如果不去做正确的事情,去解决真正的问题,我们甚至会难以生存。


 腾讯研究院: 在实践科技向善的过程中,最大的挑战是什么?意识还是行动?


 Margarita Quihuis: 我们觉得最重要的意识的变化,然后才有做某事的欲望。但是当下的情况是,很多企业在转变的过程中害怕风险,或者不知道如何改变,所以我们致力于研究系统性创新,帮助企业实现积极的转变。


 腾讯研究院: 和平创新实验室如何定义自己的角色?更倾向于和年轻企业家合作,还是独立制定标准?


 Margarita Quihuis: 我们制定标准,并将标准工具化给予企业使用。同时,我们也跟企业合作,理由很简单,谁具有充足的人力、资金来创新性解决问题?当然是企业。我花很多时间去跟想要做创新和转型的公司CEO沟通,帮助他们制定转型策略,我的要求是他们的业务必须对社会产生积极的影响、塑造合格的公民。我认为,对于很多已有市场规模的公司来说,还有很多有社会意义的事情可以做,同时这些事情可以盈利,也可以解决社会问题,并且我们可以用技术的方式快速实现这些需求。这是需要创造力和勇气的事情,有CEO惊喜地发现「哇,这真的可以实现!」所以,我们的机构更像一个保护伞,帮助企业开始一些创新性的尝试。


 腾讯研究院: 您怎样看待当下人工智能产品中的隐私问题?是否有好的解决方案?


 Margarita Quihuis: 当下的算法黑箱很像90年代的芯片黑箱问题,消费者并不关心电脑中的是AMD还是Intel芯片,于是Intel就在品牌战略活动中,请第三方来评估芯片的安全性,并将审查证书呈现给消费者,消费者当然愿意购买安全性更高的芯片。目前的苹果隐私上的策略也是这样,它会说:我们的手机和技术将保护您的隐私。隐私在某种意义上成为了奢侈品,所以苹果的售价也更高一些。但是这种隐私策略让一些人成为了苹果的死忠粉,最终隐私保护变成了市场竞争优势。


 腾讯研究院: 您如何理解「科技向善」?


 Margarita Quihuis: 我们做的事情和「科技向善」是一脉相承的。我们经常谈论伦理道德,不要这样做,不要那样做。但如果从一张白纸开始,我们想要生活的世界是什么样的?有花、有草、有新鲜空气……然后我们开始填充这张图片,并逐渐让它成为现实。如果我们从不想要的东西出发,工程师会无从下手,所以我们需要彻底想象10年、20年后我们期待怎样的世界,并朝着这个方向努力。我们需要拥有技术,并尝试找到目标,将其传达给工程师们。总而言之,技术不是目的,创造更好的世界才是。


--END--


中国和记娱乐司法保护网(知产法网)主编


蒋志培 中国人民大学法学博士,曾在英国伯明翰大学法学院、美国约翰马歇尔法学院任高级访问学者,中国人民大学法学院、北京外国语大学法学院兼职教授,中国和记娱乐司法保护网主编、国家社科基金评审委员会专家,最高人民检察院民行诉讼监督案件专家委员会委员,2014年、2015年受美国约翰马歇尔法学院、中国驻加拿大使馆和加方科技部邀请参加和记娱乐法律和创新论坛并演讲,2013年12月获得中国版权事业卓越成就奖。