AI 助阵医学防疫,个人隐私难两全?



健康大数据、人工智能(AI)已经成为医疗研发的新圣杯,新冠肺炎(COVID-19)更将 AI 技术推上防疫舞台,各国纷纷串联大数据监控足迹或采用电子围篱。但当科技防疫介入公卫医疗,我们是否在不知不觉中让渡了个人隐私?中研院欧美研究所副研究员何之行认为,规范不完备是台湾个资保护的一大隐忧,《个资法》问世远早于 AI 时代、去识别化定义不清、缺乏独立专责监管机构,都是当前课题。

“天网”恢恢,公卫医疗的新利器

自 2020 年新冠疫情大爆发,全世界为了因应危机展开大规模协作,从即时统计看板、预测病毒蛋白质结构、电子监控等,大数据与 AI 技术不约而同派上用场。但当数位科技介入公共卫生与医疗健康体系,也引发人权隐私的两难争议。

2020 年的最后一夜,台湾再次出现本土案例。中央流行疫情指挥中心警告,居家隔离、居家检疫、自主健康管理的民众,都不应参加大型跨年活动。而且,千万别心存侥幸,因为“天网”恢恢,“我们能找得到您”!有天网之称的电子围篱 2.0 出手,许多人拍手叫好,但也挑起国家进行隐私监控的敏感神经。

隐私争议不只在防疫战场,另一个例子是近年正夯的精准医疗。2021 年 1 月,《经济学人》(The Economist)发布亚太区“个人化精准医疗发展指标”(Personalised-health-index)。台湾勇夺亚军,主要归功于健全的健保、癌症数据库及尖端资讯科技。

国际按赞,国内反应却很两极。早前曾有人质疑“个人生物资料”的隐私保障,担忧是否会成为药厂大数据;但另一方面,部分医疗研究者却埋怨《个人资料保护法》(简称《个资法》)很严、很卡,大大阻挡了医学研发。为何国内反应如此分歧?

中研院欧美所副研究员何之行认为,原因之一是,

《个资法》早在 2012 年就实施,跑在 AI 时代之前,若仅仰赖现行规范,对于新兴科技的因应恐怕不合时宜。

健保数据库争议:谁能再利用我们的病历资料?

来看看曾喧腾一时的“健保数据库诉讼案”。

2012 年,台湾人权促进会与民间团体提出行政诉讼,质疑-没有取得人民同意、缺少法律授权,径自将健保资料提供给医疗研究单位。这意味,一般人完全不知道自己的病例被加值运用,侵害了资讯自主权。案件虽在 2017 年败诉,但已进入大法官释宪。

民间团体批评,根据《个资法》,如果是原始搜集目的之外的再利用,应该取得当事人同意。而健保资料原初搜集是为了稽核保费,并非是提供医学研究。

但支持者则认为,健保数据库是珍贵的健康大数据,若能串接提供学术与医疗研究,更符合公共利益。此外,如果过往的数据资料都必须重新寻求全国人民再同意,相关研发恐怕得被迫踩刹车。

种种争议,让医学研究和资讯隐私之间的红线,显得模糊而举棋不定。何之行指出,“个人权利”与“公共利益”之间的权衡拉锯,不仅是长久以来政治哲学家所关心的课题,也反映了现代公共卫生伦理思辨的核心。

我们有权拒绝提供资料给医疗研究吗?当精准医疗的脚步飞也似向前奔去,我们要如何推进医学科技,又不弃守个人的隐私权利呢?

▲ 近年“精准医疗”与“精准健康”成为医学发展的重要趋势,透过健康大数据来预测疾病、对症下药。但健康资料涉及个人隐私,如何兼顾隐私与自主权,也为另一重要议题。(Source:Flickr/NEC Corporation of America CC BY 2.0)

去识别化争点:个资应该“马赛克”到什么程度?

何之行认为,“健保数据库争议”短期可以从几项原则着手,确立资料使用标准,包括:允许退出权(opt-out)、定义去识别化(de-identification)。

“去识别化”是一道安全防护措施。简单来说:让资料不会连结、辨识出背后真正的那个人。何之行特别分享 Google 旗下人工智能研发公司 DeepMind 的惨痛教训。

2017 年,DeepMind 与英国皇家医院(Royal Free)的协定曝光,DeepMind 从后者取得 160 万笔病历资料,用来研发诊断急性肾衰竭的健康 App。听来立意良善的计划,却引发轩然大波。原因是,资料分享不仅未取得病患同意,也完全没有将资料去识别化,每个人的病史、用药、就医隐私全被看光光!这起争议无疑是一大教训,重创英国社会对开放资料的信任。

回到台湾脉络。去识别化指的是以代码、匿名、隐藏部分个资或其他方式,无从辨识特定个人。但要达到什么样的隐匿保护程度,才算是无从识别特定个人?

何之行指出,个资法定义不甚清楚,混用匿名化(anonymous)、假名化(pseudonymised)、去连结(delink)等规范程度不一的概念。台湾也没有明确定义去识别化标准,成为争议点。

现行法令留下了模糊空间,那么他山之石是否能提供参考?

以美国《健康照护可携法案》(HIPAA)为例,法案订出去除 18 项个人识别码,为去识别化的基准;欧盟《一般资料保护规则》则直接说明,假名化的个资仍然是个人资料。

退出权:保留人民 say NO 的权利

另一个消解争议的方向是:允许退出权,让个人保有退出数据库的权利。即使健保资料并没有取得民众事前(opt-in)的同意,但仍可以提供事后的退出选项,民众便有机会决定,是否提供健康资料做学术研究或商业运用。

何之行再举英国国民健保署 NHS 做法为例:英国民众有两阶段选择退出中央数据库 (NHS Digital)的机会,一是一开始就拒绝家庭医师将自己的医病资料上传到 NHS Digital,二是资料上传后,仍然可在资料分享给第三方使用时说不。毕竟有人愿意为公益、学术目的提供个人健康数据,对商业用途敬谢不敏;也有人觉得只要无法辨识个人即可。

近年,英国-很努力和大众沟通,希望民众认知资料分享的共善,也说明退出带来的社会成本,鼓励人们留在数据库内,享受精准医疗带给个人的好处。可看到英国-借由公众沟通,努力建立社会信任。

参照英国经验,目前选择退出的比率约为 2.6%。保留民众某种程度的退出权,但善尽公众沟通,应是平衡集体利益与个人隐私的方法之一。

欧盟 GDPR 个资保护的四大原则

健保数据库只是案例之一, 当 AI 成为大数据浪潮下的加速器,最周全之策仍然是针对 AI 时代的资料运用另立规范。 欧盟 2018 年实施的《一般资料保护规则》(General Data Protection Regulation,以下简称 GDPR),便是大数据 AI 时代个资保护的重要指标。

▲ 因应 AI、大数据时代的变化,欧盟在 2016 年通过 GDPR,2018 年正式上路,称为“史上最严格个资保护法”。包括行动装置 ID、宗教、生物特征、性倾向都列入被保护的个人特征范畴。(Source:pixabay)

欧盟在法令制定阶段已将 AI 运用纳入考量,设定出个资保护四大原则:目的特定原则、资料最小化、透明性与课责性原则。

“目的特定”与“资料最小化”都是要求资料搜集、处理、利用,应在特定目的必要范围内,也就是只提供“绝对必要”的资料。

然而,这与大数据运用需仰赖大量资料的特质,明显冲突!

大数据分析的过程,往往会大幅甚至没有“特定目的”广蒐资料;资料分析后的应用范围,也可能超出原本设定的目标。因此,如何具体界定“特定目的”及后续利用的“兼容性判断”,便相当重要。这也突显出“透明性”原则强调的自我揭露(self-disclosure)义务。当搜集方成为主要的资料控制者,就有义务更进一步解释那些仰赖纯粹自动化的决策,究竟是如何形成的。

“透明性原则的用意是为了建立信任感。”何之行补充。她举例,中国阿里巴巴集团旗下的芝麻信用,将算法自动化决策的应用发挥得淋漓尽致,就连欧盟发放申根签证都会参考。然而,所有纳入评分系统的人民,却无从得知庞大的算法系统如何运作,也无法知道为何自己的信用评等如此。

▲ 芝麻信用声称,系统会依照身份特质、信用历史、人脉关系、行为偏好、履约能力等五类资料,进行每个人的信用评分,分数介于 350~950。看似为电商系统的信用评等,但实则影响个人信贷、租车、订房、签证,甚至是求职。

这同时涉及“课责性”(accountability)原则──出了问题找谁负责。以医疗场域来讲,无论诊断过程中动用了多少 AI 工具作为辅助,最终仍须仰赖真人医师做最后的专业判断,这不仅是尊重医病关系,也是避免病患求助无门的问责体现。

科技防疫:无所遁形的日常与数位足迹

当新冠疫情爆发,全球人心惶惶、对未知病毒充满恐惧不安,科技防疫一跃成为国家利器。但公共卫生与人权隐私的论辩,也再次浮上台面。

2020 年 4 月,挪威的国家公共卫生机构推出一款接触追踪软件,能监控足迹、提出曾接触确诊者的示警。但两个月后,这款挪威版的“社交距离 App”却遭挪威个资主管机关(NDPA)宣告禁用。

▲ 挪威开发“Smittestopp”,可透过 GPS 与蓝牙定位追踪用户足迹,提出与感染者曾接触过的示警,定位资讯也会上传到中央服务器储存。然而挪威资料保护主管机关(NDPA)宣告,程式对个人隐私造成不必要的侵害,-应停止使用并删除资料。(Source:Google Play)

为何挪威资料保护机关会做出这个决定?大体来说,仍与欧盟 GDPR 四大原则有关。

首先,NDPA 认为挪威-没有善尽公众沟通责任,目的不清。人民不知道这款 App 是为了疫调?或者为研究分析而持续搜集资料?且上传的资料包含非确诊者个案,违反特定目的与资料最小搜集原则。

此外,即便为了防疫,-也应该采用更小侵害的手段(如仅从蓝牙确认距离资讯),而不是直接由 GPS 掌控个人定位轨迹,这可能造成国家全面监控个人行踪的风险。

最后 NDPA 认为,搜集足迹资料原初是为了即时防疫,但当资料被转作后续的研究分析,-应主动说明为什么资料可以被二次利用?又将如何去识别化,以确保个资安全?

换言之,面对疫情的高度挑战,挪威个资保护机关仍然认为若没有足够的必要性,不应轻易打开潘朵拉的盒子,国家采用“Smittestopp”这款接触追踪软件,有违反比例原则之虞。

“有效的疫情控制,并不代表必然需要在隐私和个资保护让步。反而当决策者以防疫之名进行科技监控,一个数位监控国家的诞生,所妥协的将会是成熟公民社会所赖以维系的公众信任与共善。”何之行进一步分析:

数位监控所带来的威胁,并不仅只于表象上对于个人隐私的侵害,更深层的危机在于,掌握“数位足迹”(digital footprint) 后对于特定当事人的描绘与剖析。

当监控者透过长时间、多方面的资讯搜集,对于个人的“深描与剖绘”(profiling)远远超过想像──任何人的移动轨迹、生活习惯、兴趣偏好、人脉网络、政治倾向,都可能全面掌握!

AI 时代需要新法规与管理者

不论是医药研发或疫情防控,数位监控已成为当代社会的新挑战。参照各国科技防疫的争论、欧盟 GDPR 规范,何之行认为,除了一套 AI 时代的个资保护规范,实践层面欧盟也有值得学习之处。

例如,对隐私风险的脉络化评估、将隐私预先纳入产品或服务的设计理念(privacy by design),“未来照护机器人可能走入家家户户,我们却常忽略机器人 24 小时都在搜集个资,隐私保护在产品设计的最初阶段就要纳入考量。”

另外最关键的是:设置独立的个资监管机构,也就是所谓的资料保护官(data protection officer,DPO),专责监控公、私营部门是否遵循法规。直白地说,就是“个资警察局”。何之行比喻,

如果家中遭窃,我们会向警察局报案,但现况是“个资的侵害不知道可以找谁”。财税资料归财政部管,健康资料归卫福部管,界定不清楚的就变成三不管地带。

综观台湾现状,她一语点出问题:“我们不是没有法规,只是现有的法令不完备,也不合时宜。”

过往许多人担心,“个资保护”与“科技创新”是两难悖论,但何之行强调法令规范不是绊脚石。路开好、交通号志与指引完善,车才可能跑得快。“GDPR 非常严格,但并没有阻碍科学研究,仍然允许科学例外条款的空间。”

“资料是新石油”(data is the new oil),台湾拥有世界数一数二最完整的健康资料,唯有完善明确的法规范才能减少疑虑,找出资料二次利用与科技创新的平衡点,也建立对于资料二次利用的社会信任。

▲ 病毒阴影下,疫病恐惧会让人会迫切期待-雷厉风行,但何之行强调,疫情终将趋缓,重新反思法治社会的原则:法律保留、授权明确、正当程序与最小侵害,是民主社会在后疫情时代的重要课题。

▲ 中研院集结近 20 位人文社会学者参与的科研计划,推出数位网站,从历史、经济、法政、社会学、文学等不同视角,对瘟疫下的社会冲击提出深刻讨论,7 月将出版实体书籍。网站中,何之行也透过人权、法律与历史的跨向度对话,省思科技防疫下的界线权衡。(Source:COVID-19 的人文社会省思网站,中研院数位文化中心)

(本文由 研之有物 授权转载;首图来源:shutterstock)

2021-06-16 07:05:00
标签:   资讯头条 kotoo科技资讯 kotoo科技 kotoo科技资讯头条 科技资讯头条 KOTOO商业产经 新闻网 科技新闻网 科技新闻 Kotoo科技新闻网 Kotoo Kotoo科技新闻网 科技新闻 科技新闻网 新闻网 KOTOO商业产经 科技资讯头条 kotoo科技资讯头条 kotoo科技资讯 资讯头条 Kotoo 科技新闻 科技新闻网 新闻网 KOTOO商业产经 科技资讯头条 kotoo科技资讯头条 kotoo科技 kotoo科技资讯 资讯头条
返回顶部
跳到底部

Copyright 2011-2024 南京追名网络科技有限公司 苏ICP备2023031119号-6 乌徒帮 All Rights Reserved Powered by Z-BlogPHP Theme By open开发

请先 登录 再评论,若不是会员请先 注册