南方都市报在3月9日发了一篇文章,——在虚拟世界里,如何证明“我”是我?
朋友看到后转给我,我好奇的点进去看看,发先这就是一篇采访记录为形式,通过“元宇宙“的热度,为阿里团队做宣传的文章,摘录部分内容如下:
“元宇宙这个新兴概念一度火爆出圈,伴随着人工智能等技术的发展,引发各领域公司的加速布局。距扎克伯格提出元宇宙已经过去四个月了,各公司布局元宇宙的情况如何?相关技术的发展会对普通人的生活带来哪些影响?3月6日,南都、N视频与阿里巴巴安全部联合邀请三位技术领域嘉宾,围绕虚拟世界和AI风险治理与网友们展开交流。“
访谈邀请了三位嘉宾,基本上是阿里内部做相关领域的团队,分别是做游族网络的代表,淘宝Buy+ VR产品负责人,以及阿里安全高级算法工程师。其中游戏团队与VR团队负责人讨论的,主要集中在针对未来元宇宙中更加便利的生活和工作场景的畅想。在这方面诸多互联网公司都有过类似讨论。 特别是,元宇宙与互联网行业发展结合的概念,其实最早由facebook提出,引起很大反响,进而微软也紧急召开发布会宣布公司未来在元宇宙方面的布局计划,但是我们详细看相关的内容,就会发现微软的发布多少有点“赶鸭子上架”,把Azure领域的业务发展强行与元宇宙挂钩,详情可以参考之前的文章。
但是在安全层面讨论的问题却着实令人困惑,引用如下:
直播中有网友提出,如今的技术发展水平,离元宇宙的实现还有很长的路要走。现在提元宇宙的风险治理问题会不会太早?AI治理的发展不应该落后于科技发展。在未来,人们的嗅觉、触觉、味觉、痛觉都有被欺骗的风险。这个融合了AR、VR、MR、AI等技术的未来世界,是现实和虚拟高度融合后的产物,也可能带来一系列的安全问题。
“人工智能发展到目前的阶段,能做的事情已经非常多了,如果我们不做一些模型的约束,不增加鲁棒性,那么未来它很可能会有失控的风险。”而如何更好地应对其中的安全风险,用魔法打败魔法,用AI治理AI,这也是阿里巴巴人工智能治理与可持续发展实验室(AAIG)正在研究的方向。
首先,这是针对一份访谈做的整理记录,不可能系统性地针对一个技术问题做出解读,访谈形式或许可能没有办法完全系统性地表达出工程师的完整想法,但是这个整理出来文本,是有问题的。
首先,在人工智能领域,互联网上开源代码资源非常广泛,仅仅GitHub上就能找到很多现成的算法框架,我们知道深度学习视觉模型,针对应用层面,更多的挑战来源于对不同于训练分布的,仅仅添加了很小的扰动的样本上预测效果不佳。这些被称为“对抗样本(adversarial example) 的输入的存在,为深度学习在许多安全关键性场景中的应用,如自动驾驶,人脸识别,恶意软件检测等,带来了威胁与不确定性。另外,许多人工智能系统,如无人车的功能安全(safety)仍然很大程度上依赖于其中深度学习模型的鲁棒性,举个例子,像是光线这种不确定的环境变化也同样成为了深度学习模型实际存在的威胁。综上来看,深度学习模型的鲁棒性是与准确性同样重要的模型评价标准,我们随便使用关键字“Robustness Benchmark”就可以查询到很多相关内容,开源测试工具也不少,这些足以整明,以图像识别,自动驾驶等实际应用为导向,所开发的算法模型,鲁棒性已经是必要因素,在2022年依旧谈论和强调模型增加鲁棒性这一点,另人困惑。要么是阿里的AAIG实验室研发水平还尚未走在行业前列,要么是这篇访谈在记录和整理出现了争议性内容,没有清晰表达被访谈者观点。
(笔者注:7月13日,阿里巴巴宣布成立人工智能治理与可持续发展实验室Alibaba Artificial Intelligence Governance Laboratory,简称AAIG, https://s.alibaba.com/cn/aaig该实验室将着力于可持续发展、可靠、可信、可用的人工智能技术和应用,通过构建数字经济的信任机制,惩治危害商家和用户利益的行为,保护和激励创新,促进平台经济的持续健康发展)
为了避免断章取义的嫌疑,接下来将访谈整理内容中,关于“AI治理AI”的方面全部摘录如下:
“实现AI算法可持续发展,是治理的初心。”AI算法已经成为我们生活中不可或缺的一部分,为了避免快速发展中产生的不良因素,让其可持续发展,必须有一些治理技术和理念。他认为,坚持技术可用、可靠、可信同样重要。“可用”即指基于算法实现的功能,将为人们生活带来更便利的体验;“可靠”即指技术具有稳定性,面对海量数据涌入,不轻易崩溃。目前的开源技术、云计算等发展,使得技术可用、可靠两个层面都可实现,而技术“可信”则面对更高的要求,算法防御性、公平性等都是实现技术可信的要素。“在此基础上,我们还要通过多方参与协同共治,达到治理与发展平衡。”郎一宁说,多方参与不仅指不同的互联网公司之间,也包括学界、行业等不同领域的协同共治。“我觉得AI治理最大的价值,就是能够让人工智能可持续发展。”谈及AI治理的价值,郎一宁称希望能够给人们提供一个更可靠可信可用的人工智能。“这样,当我们真正走进元宇宙的那天,它才是自由且安全的。
笔者感慨,整场访谈最有价值的内容,来源于直播中的观众提问:如今的技术发展水平,离元宇宙的实现还有很长的路要走。现在提元宇宙的风险治理问题会不会太早?
是的,不仅阿里要做AI治理还太早,甚至这个讨论在技术方面的成熟度还不够,比如优化算法,比如数据安全。
抛开技术方面的落后,为了验证算法模型,或者处于其他利益考量,目前互联网公司获取用于数据的方式,以及对部分用户隐私数据的利用,就足够值得批评了。
笔者简单浏览AAIG官方网站,在关于AAIG介绍中,有提到:
在AI可信度方面,阿里通过大规模多模态风险智能识别和审核技术,每天处理超过上百亿的用户生成信息,帮助平台发现违规、侵权、刷单等风险信息,大幅提升互联网内容可信性。其中“全国首例电商平台打假案”和“全国组织刷单入刑第一案”曾入选2017年推动中国互联网法治进程十大事件。
随着人工智能技术全面深入应用于社会的各个领域,如何科学评估人工智能应用的社会综合影响、如何推进人工智能更好应用于社会公共服务、如何利用人工智能促进治理体系和治理能力现代化等问题,成为社会各界探讨的共同话题。2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出“和谐友好”“公平公正”“包容共享”“尊重隐私”、“安全可控”“共担责任”“开放协作”“敏戒治理”八项原则。在以上原则指导下,阿里通过人工智能算法的可靠性优化、可信度提升和可用的规模化验证等三项举措,不断完善平台健康度。
上文提到的国家新一代人工智能治理专业委员会,阿里,腾讯等企业都会作为代表参与,这是一件好事。但是就在2022年3月1日开始正式实行的《互联网信息服务算法推荐管理规定》其中第二十一条是:算法推荐服务提供者向消费者销售商品或者提供服务的,应当保护消费者公平交易的权利,不得根据消费者的偏好、交易习惯等特征,利用算法在交易价格等交易条件上实施不合理的差别待遇等违法行为。即所谓的大数据“杀熟”。而几乎同一时间,阿里旗下飞猪、饿了么被北京消协点名,涉嫌大数据“杀熟”。滴滴,携程也发生过很多类似事件,根据消费习惯,金牌会员在打车,定票的费用可能会比普通用户还要高。
相信我们或多或少都有亲历过,或者“疑似”经历过大数据杀熟的行为,但是仔细想想,大数据杀熟本质是因为算法没有足够的“鲁棒性”,或者是算法与技术本身没有做到足够监控吗?
利用大数据为人做标签,杀熟,就是纯粹的人为行为。大量的人根据我们的行为主观性打标签,通过读取短信或者绑定账户的账户确认公司,年轻,学历,贷款情况,消费记录等等,判断用户的基本生活情况,推测可能的消费习惯,并且,尝试性一步步试探用户的底线。举个例子,在用车高峰期,快车不足,滴滴可能会推荐优享,甚至专车等更高费用,但是接单更快的车型,或者弹出远程叫车加价的情况,只要用户同意,那么下一次使用打车软件时,即使不是打车高峰时段,系统还是会尝试推荐更贵车型,以此一步步试探用户对于车费的接受程度,后续责可能出现,两人同时从同一定位地点叫车到相同终点,同样车型,系统显示价格不同的状况。
上述情况有一个专门的名词,叫做:Big Data Discrimination
因为从整体来看,大数据杀熟或许是一个比较容易被消费者发现的点,国内互联网发展的过程中,用户们会优先发现自己被杀熟了。实际上,大数据是一个工具,核心是背后使用工具的“人”,是否带着偏见看待用户。因此,在海外,对于类似的事件,大家更习惯性把此类事件成为大数据歧视。歧视待遇的基础包括肤色、种族、性别,但也包括收入或教育水平、性别、居住地区等,虽然本意是为了提供更精准的服务,但是使用大数据分析来改善业务流程或提供个性化服务可能会导致某些人群受到歧视。
综上,排除大数据分析技术上会带来的数据歧视等客观因素带来的问题,国内互联网公司过度收集用户信息,主观上以营利为目的为客户打标签,进行不平等销售,这个行为本身就值得谴责,我们希望相关法规逐渐完善,能起到更好地监察管控作用。
那么接下来再看一下客观因素:
就算工具的使用者在初期没有主观偏见,但是在大数据分析的任何阶段,错误的统计处理或糟糕的数据质量都可能导致意外的数据偏差。不知道这种偏差是否是阿里技术团队不断强调“鲁棒性”的原因。
人们对个性化服务、个性化广告、定制服务和产品提供有相当大的兴趣。个性化服务只不过是根据性别、收入、教育程度、消费偏好等个人数据,将人们排除在特定目标群体之外或将他们纳入特定目标群体。任何大数据分析,都需要依赖信息的分类以及从分类中得出的结论,从这个意义上说,歧视可能是分析过程中固有的一部分。摈弃大数据分析,我们在社会生活中也会不自觉依仗以往经验,对人下判断,比如根据顾客衣着评判其消费水平的店员,在如今也很常见。所以当我们在做数据分析,或者互联网公司产品经理在做“人群画像“的时候,这种偏见或许已经存在了。
如今深度学习的技术基本框架,是基于人类尝试用电子信号,也就是与或非门电路的组成,来模拟人类大脑突触在神经介质之前传递信息的方式,关于这点可以参考之前的文章,这里不做赘述。
由文章可见,最前端技术也无法百分之百还原人类大脑思维和传递信息的方式,不论在生物学,抑或是“仿生“这种方式的深度学习,架构亦或算法,尚且无法复制一颗大脑。互联网公司却在尝试使用这种技术分析和解析人性,也难怪当今社会对数据驱动的歧视如此反感。
数据集的偏差或基于数据集分析的陈述或预测可能源于分析过程中的各种错误、缺点或误解。数据收集过程可能故意有偏差,因为调查的方式有偏差、数据来源的选择有偏差、调查的时间段不够长或忽略了有关参数或情况。在分析过程中,正确的统计处理和准确性估计需要专业知识。因此,这一程序容易在方法和技术上出现错误。造成非预期数据偏差的原因很多。首先,数据集的样本大小直接影响从数据样本中得出的陈述或结论的有效性。统计分析的准确性取决于样本的性质及其估计。在大数据的背景下,可用的数据通常由许多子集组成,需要仔细的统计处理,将估计过程规范化到单个子集,以避免过拟合或错误的结论。这种异构性要求对来自不同数据源的数据进行干净而仔细的聚合,这些数据源对应于不同的子集,其中一些独特的特性不是所有子集共享的。这一点,笔者之前在做人工智能语义分析的时候,就感慨中华文化博大精深,对于语义的理解和切分往往能对应多个可能性,不得不承认,有些时候为了精简工作量,我们经常采取常用的理解和说法,忽略相对“小众“或者”偏门“的语义。核心目的是先建立语义Pattern,剩下的事情不着急,慢慢来,慢慢扩充。因为我们总是认为,以团队有限的人,能想到的语义意图,也是有限的,既然不能保证初始数据完整,分类准确,不如做一个粗略的框架,把算法跑跑试试。这也就是为什么在算法中,即使是一个Perception感知机,阈值threshold以及各条件权重也并不好界定。(笔者注,推荐《Neural Networks and Deep Learning》 written by Michael Nielsen)
由于大数据通常是高维的,因此在分析大数据时需要同时估计不同的变量。如果一个结论或基于算法的预测是基于许多变量的,那么每一个估计都与相应的误差有关,从而导致累积误差。这种效应被称为噪声积累,会使原始信号难以被引用。处理这个问题的统计技术需要特别的专门知识。在分类和预测分析中,参数选择和降维也是克服影响因素积累的关键。
另外,虚假的相关性和偶然的内生性是另外两种可能导致错误结论和预测的影响。如果相关性是由看不见的第三个变量或事件而不是由原始变量引起的,则变量或实例可能会“虚假地”相关。实际上,在我们对于人行为判断时,经常性出现类似的情况,因为我们对事务的判断是很难彻底筛除主观因素的。高维使得这种效应更容易发生。也可能是变量实际上是相关的,但没有任何意义或原因,比如我们知道童年阴影对于成年人行为影响很大,很多连环变态杀手童年曾经遭受虐待,但是童年虐待就一定导致不健全的人生嘛,不一定,很多儿时家庭不完整的小孩长大或许会成为支撑家挺的顶梁柱,因为曾经的缺憾令他懂得珍惜。同理,偶然的内生性是选择偏差、测量误差和遗漏变量的结果,这些现象在大数据分析中也经常出现。
当下,多数互联网公司建立的学习算法通常非常复杂。这种复杂性与更广泛的社区缺乏透明度或可理解性相结合,增加了发现错误的可能性。并且,算法通常是公司内部的黑匣子,可重复性有限。公开交流,特别是关于准确性水平、算法内的不确定性或隐含假设通常可能是不够的。
简而言之,互联网公司最有问题的一点是,在尚不成熟的技术架构上,妄图用技术分析最复杂的人性。
机器学习,AI,人工智能,深度学习等等概念词,对如今的年轻人来说并不陌生。因为属于新兴领域,听起来非常的厉害,似乎深度学习几乎能解决我们生活中很多问题,从Alpha Go在棋局上战胜了世界冠军,到如今图像识别技术帮助捕捉追逃逸罪犯,我们似乎因为看到机器能做到人做不到的事情,就忽略了,很多人能做到的事情,机器做不到。
总结,技术要发展,但是技术要服务于应用场景逐步发展,手握技术仿佛手握一件锋利的兵器,兵刃越锋利,越要怀有敬畏之心,对法律,对人权。