机器人类的世界(机器的猜想与边界)
机器人类的世界(机器的猜想与边界)1865 年,英国通过当时五大道路交通法之一的《道路(蒸汽)机车法》。该法要求蒸汽机车配备一名专职「红旗手」,走在车辆前方约 55 米的地方,持红旗以示警示,并负责协调马车与机车在狭窄道路的会车。一、「数据飞轮」与临界点经过五六年的资本催熟,大量资本投到企业「数据飞轮」,为其积蓄不可阻挡的势能。算法让机器越过工业红线,平行线有了交集。不过,飞轮尚未抛出漫天钞票,已频频感到现实反作用力。一众知名 App 接连下架,「自查整改」、「上市」、「退市」热词频出,以野蛮生长与丛林法则为主的 AI 叙事,翻开自我规训新一章。巴西艺术家拉克尔 · 科根(Raquel Kogan)装置艺术作品,计算机生成的数字投射在漆黑的房间,使观众成为了作品的重要组成部分。
机器之心原创
作者:吴昕
阻止技术的发展是没有道理的。另一方面,新技术将与我们现有的期望、规则和系统发生冲突。社会机构——从政府到公司,再到文化规范——要去适应步伐。它将使我们能够利用 AI 等指数技术的力量,以及可以塑造它的规则和规范,满足社会需求。
三年前,商汤科技联合创始人、CEO 徐立在桌子上画了一条线,代表科技发展。然后又画了一条工业线。「科技和工业发展始终并行。但什么时候这两条线产生交集?」他问。
经过五六年的资本催熟,大量资本投到企业「数据飞轮」,为其积蓄不可阻挡的势能。算法让机器越过工业红线,平行线有了交集。
不过,飞轮尚未抛出漫天钞票,已频频感到现实反作用力。一众知名 App 接连下架,「自查整改」、「上市」、「退市」热词频出,以野蛮生长与丛林法则为主的 AI 叙事,翻开自我规训新一章。
巴西艺术家拉克尔 · 科根(Raquel Kogan)装置艺术作品,计算机生成的数字投射在漆黑的房间,使观众成为了作品的重要组成部分。
一、「数据飞轮」与临界点
1865 年,英国通过当时五大道路交通法之一的《道路(蒸汽)机车法》。该法要求蒸汽机车配备一名专职「红旗手」,走在车辆前方约 55 米的地方,持红旗以示警示,并负责协调马车与机车在狭窄道路的会车。
这些在今天看来「不可思议」的规定,被很多人视为英国在内燃机时代落后于德法的重要原因。过早立法,就好像给刚长出的瓜苗套上模具,不问可能,统一大小、人工塑型。
因专职「红旗手」的特别规定,该法被戏称「红旗法案」,从而扬名。
前人的弯路不必再走,对于蓬勃发展、竞争正盛的 AI 科技,希望中国 AI 避免 「重蹈覆辙」也在情理之中。
大数据与人工智能技术可以使一些新兴国家赶上、甚至超过传统发达国家。同时,这种基于密集数据和巨大算力的新技术甚至有望重塑沉闷的科学发现和社会治理。
从 AI 驱动蛋白质预测到借助直觉解决数学猜想,创新是不是有一种新的范式?在徐立看来,今天 AI 给出的猜想在很多情况下可以远超我们当下的认知,AI 也许可以给出当前时代的「牛顿定律」猜想。
如果可能要等几十年甚至上百年,人类才能够对技术的「黑盒子」进行解释,「我们是不是要等这么长的时间(才去应用)?」
从数字文娱的美颜特效、智能上妆,虚实结合的体感游戏,到深入到金融、工业、农业等等方面的数字人、智造、智检智控,技术应用逐步渗透进生产生活的方方面面。新冠疫情期间,无感测温、健康码、远程教学办公,甚至于 AI 智能解译医疗摄片,通过一方屏幕,人们能真切感受到经济脉搏与技术活力。
但是,也有无法忽视的独特风险与挑战。
与自行车、内燃机驱动的工业经济不同,立基 AI 的数字经济离不开「数据飞轮」——海量数据获得改善服务,更受欢迎,吸引更多的海量数据。二者是一种互相强化的关系。
这不仅是字节跳动短短几年就估值 10 亿美元、让 Facebook 相形见绌的原因,也是亚马逊、谷歌、苹果和 Facebook 等超级明星科技公司在极短时间内积累巨大市场力量的重要因素。
反过来说,人工智能如果不辅以数据治理则可产生严重的马太效应从而加深社会分化。
《社会心态蓝皮书:中国社会心态研究报告(2019)》显示,对第三方保存个人信息「非常有信心」的民众不足一成。「商业机构」位列最担心个人信息和数据被收集、保存和使用第三方的第二位。
这一结果与 2019 年普华永道的一份调查结果吻合。中国企业数字化进程中面临的最严峻风险是数据治理或隐私问题,比例达到 28%,高于全球平均水平(11%)。
吊诡的是,对于当下陆续奔赴二级市场的中国 AI 公司来说,主流业务的规模商用根本离不开客户信任。当 AI 从安装期(installation )步入真正部署期(deploy)后,算法本身不是壁垒,未来更多的(壁垒)是如何与行业结合,对技术的信任问题成为其中重要一环。
目前,各国和各地区的法律正在扎紧篱笆,对企业的启示相似——数据安全风险不是闹着玩的,企业都要在数据安全上做足投入,依法达成数据安全合规。
过去几个月,中国立法机构敲定了至少四部新的法律法规,随后陆续生效,中国互联网版图可能被重塑。
二、约束求解
作为《数据安全法》和《个人信息保护法》颁布后首家向港交所递交招股说明书的企业,商汤科技招股说明书中的「业务」章节,总计有 22 处提到「数据安全」,并对自身伦理治理、管控做了详细披露。
商汤通过软件平台快速部署及商业化人工智能模型的流程。
徐立打过一个比方,如果优化函数是 AI 推动社会的进步,纵观全世界,大概有三个约束条件需要满足:以人为本、可持续发展以及技术可控。
以人为本,强调的是人权、隐私保护及无偏见地应用技术;技术可控,包含透明计算、可解释性、技术安全的边界等;可持续发展,追求公共善与长远发展。
「未来的人工智能伦理治理其实就是在这三大支柱当中求得平衡」,徐立坚信。
而其中,首当其冲的是数据与隐私保护。IBM 商业价值研究院曾在 2018 年与牛津经济研究院合作调查,发现,近 2/3 高管将「AI 道德」视为重要业务主题。位居道德风险首位的正是「数据责任」,包括数据所有权、存储、使用和共享。
「数据责任」得分差不多是排名第二 (「价值定位」)的两倍。
在一些法律人士看来,AI 行业在模型训练、落地应用中涉及大量数据,同时也要为其保障用户数据安全的能力提出更高要求,在数据的采集、分析、利用等各个方面均应设置严格的条件和专业的技术防火墙。
商汤招股书显示,公司受客户委托就若干业务合作处理其数据。公司要求客户确认,彼等乃从合法来源获得该等数据并已取得该等数据的使用权,且彼等终端用户已同意协议中指定的使用目的。仅使用数据作客户明确授权用途,如身份核实、记录保存和统计数据。
除履行或敦促敦促客户履行「通知 - 同意」基本义务,AI 公司还应积极采用技术手段解决数据安全问题。《个人信息保护法》第五十一条明确规定,采取相应的加密、去标识化等安全技术措施;…… 人工智能企业在收集到数据后应该按照此规定对信息采取去标识化等措施,充分保障信息和数据的安全。
隐私增强计算可以将数据做一些模糊化处理或者加密处理,然后再做计算,它保护到是数据本身,有利于突破数据保护与产业应用的难题。
商汤也将隐私设计嵌入核心产品设计。例如,基础设施 SenseCore 训练平台集成了隐私计算技术。
无需传输原始数据样本,就可以直接使用客户本地存储的数据进行模型训练,这能够在生产人工智能模型的同时确保数据安全、数据隐私以及监管合规。
SenseCore 还提供数据脱敏和加密工具,包括数据屏蔽技术来隐去个人信息并模糊字符、数字及人脸。这些工具为所有经处理的数据添加了额外的隐私及安全保护层。确保数据用于训练时不附带任何个人信息。
商汤 SenseCore 三层结构图
除了基础设施,从主要业务层面来看,商汤 2B 和 2C 业务也嵌入了安全要素。
商汤累计赋能 200 多款手机、AR 和 VR 设备、智慧大屏及消费级无人机。为了将潜在个人信息泄露风险降至最低,商汤仅以元数据形式对提取的关键信息传输有限数据,使 AI 传感器隐去用户个人信息,从而增强数据安全性。
企业方舟则采用全面数据安全策略,通过加密经处理数据、以及使用数据脱敏技术,保护经处理数据免受未经授权的访问及滥用。
用于智慧商务的企业方舟平台架构图
用于物联网设备的 SenseME 平台架构图。AI 传感器可以最大限度降低设备功耗和增强数据安全性。
三、基于「发展」,超越商业
中国只有 3 万名眼科医生,却有 1.14 亿糖尿病患者。放射科医师数量年均增速仅 4.1%,基层医生更是严重缺乏,导致影像科医生工作时间过长。
新冠疫情来势汹汹,肺部 CT 影像成为诊疗重要依据。如何在人手极度有限的情况下,迅速完成病情筛查并在全国范围内迅速搭建起狙击疫情的首道防线?
电力工业是全球最主要的 CO2 排放源之一,如何实现实现电力减排、清洁高效生产和运维?
新技术带来了难以置信的好处。同时,当 AI 渗透的行业越来越多,很多需求已经不能单纯从商业化角度切入,而需要从更大范围「向善」。
传统医疗供需问题在传统商业模式下很难被解决,AI 或许可以让县级城市和社区低成本完成基础病筛查。疫情期间,没有商汤等公司 AI 技术驰援,中国很难迅速搭建起防范疫情的首道防线。
应对气候变化需要更多的指数技术,而不是更少。商汤借助 AI AR 技术提升数字电网电力运维效率。甚至自己开发算法、传感器和芯片以最大程度降低 AI 软件和产品能耗。
公司还通过投资各种能源优化产品,比如 PUE 系数计算和光伏发电,以进一步减少碳足迹。
「最容易满足所有治理框架要求的,就是什么都不去突破,但这样大家就会忘了最初出发目标是什么,我们的初心就是用人工智能去推动社会的发展,这是目标。」徐立说。
「很多时候,如果我们只谈约束条件,而忽略了优化函数的目标,那么这个优化是不成功的。」这也正是徐立反复强调的基于发展的治理立场。
提供更为广泛普惠的医疗保健、教育、卫生资源,以更清洁、可持续的方式促进产业发展,我们仍然需要 AI 公司(和监管部门)充分发挥企业的创新能力。
这个时代的许多最紧迫的问题只能通过指数技术来解决。Azeem Azhar 认为。
因此,阻止技术的发展是没有道理的。另一方面,新技术将与我们现有的期望、规则和系统发生冲突。社会机构——从政府到公司,再到文化规范——要去适应步伐。它将使我们能够利用指数的力量,以及可以塑造它的规则和规范,满足社会需求。
四、「篱笆」与机遇
给 AI 技术与应用扎上篱笆,原有企业的经验管理理念、生产流程甚至商业模式都面临改变,短期来看,这势必进一步推高 AI 企业的成本。但同时也在迎合中创出新的机会。
讲伦理,不一定站在商业化的对立面。在一些专家看来认为,数据保护与技术进步两者并不必然冲突,高要求反而能倒逼更先进的技术。
比如,欧洲对隐私的严格保护,更能促使本土 AI 公司创造下一代能保护隐私的技术,这也是暂处「下风」欧洲 AI 取胜之道。因为美国没有欧洲严格,企业可以继续使用传统方法去聚合数据,但欧洲已经考虑如何合规使用数据。
「这些要求乍一看仿佛限制了发展,实际上为我们提供了创新机会。」微软副董事长兼总裁 Brad Smith 曾谈到 GDPR 的积极影响——因为合理的隐私法规将帮助维持与用户之间的信任。
「如果人们信任技术,就会使用它,为行业创造更大的机会。」
商汤以积极态度应对监管,并做主动披露的行为,将对行业产生示范和竞争效应,即 AI 产业和科技公司需要遵循更严格的个人授权、更健全的商业伦理制度建设。
从中期看,上市科技公司主动对个人隐私、AI 治理工作进行披露,无疑将对其他企业起到示范以及指引作用,从而减轻数据标准化以及降低数据治理的工作量。
对未来行业竞争态势也会产生深远影响。关注重要数据的合规性、冷静应对跨境监管冲突、应对细分领域的法律监管,这些都将是行业内企业未来面临的合规新议题。
正如同苹果 CEO 库克曾在麻省理工学院毕业典礼上讲过的一段话:
「我不担心人工智能像人类一样思考问题,我担心的是人类像计算机一样思考问题——摒弃同情心和价值观并且不计后果。」