܄

每一个大模型公司,都要建一个科技伦理(审查)委员会?

【数据猿导读】 如果需要审查,又应该如何审查?审查的焦点又应该放在哪些方面?这些问题将在本文中得到深入探讨,以期揭示大模型领域科技伦理审查的必要性和具体路径。

每一个大模型公司,都要建一个科技伦理(审查)委员会?

近年来,从自动化决策系统到人工智能算法,这些技术正在深刻地影响着我们的日常生活、工作和社会互动。然而,这种快速发展也伴随着一系列伦理挑战,包括隐私权保护、数据滥用、算法偏见等。在这种背景下,科技伦理审查的紧迫性日益凸显。

近期,中国科技部会同教育部、工业和信息化部等10部门印发了《科技伦理审查办法(试行)》(以下简称《办法》),为科技伦理审查提供了具体规定。这一举措不仅意味着政府对科技伦理审查的重视,也引发了一个关键问题的讨论:大模型领域是否需要进行科技伦理审查?

如果需要审查,又应该如何审查?审查的焦点又应该放在哪些方面?这些问题将在本文中得到深入探讨,以期揭示大模型领域科技伦理审查的必要性和具体路径。

大模型领域需要科技伦理审查么?

在《办法》中,一共列了7条需要开展伦理审查复核的科技活动清单,其中第6、7条分别是“具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发”,”面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。”

大模型,作为人工智能领域的顶尖技术代表,具有卓越的数据处理能力、智能分析能力和意识引导能力。这些特质使得大模型不仅可以处理海量数据,还可以推演出极具影响力的结论和预测,甚至在某种程度上影响着公众的舆论和社会意识形态。

因此,大模型的研发和应用可能会直接涉及到社会道德、伦理价值观念、隐私权保护等一系列敏感问题。正是因为大模型的特殊性,它们应当在科技伦理审查的范畴内。

以百度、阿里巴巴、华为、科大讯飞等科技巨头为例,这些公司一直在大模型领域投入了大量资源进行研发,推动了人工智能技术的不断进步。然而,这些公司所开发的大模型在应用的过程中,可能会触及到用户隐私,或者产生偏见性结果,甚至引导社会舆论走向。科技伦理审查的实施,将促使这些科技公司更加负责任地开发和使用大模型。

怎么审查?谁来审查?

那怎么进行科技伦理审查呢?

《办法》中有一条规定,“从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。”

大模型_科技伦理_审查委员会-1

并且要求“单位应为科技伦理(审查)委员会履职配备必要的工作人员、提供办公场所和经费等条件,并采取有效措施保障科技伦理(审查)委员会独立开展伦理审查工作。”

“科技伦理(审查)委员会人数应不少于7人,设主任委员1人,副主任委员若干。委员会由具备相关科学技术背景的同行专家,伦理、法律等相应专业背景的专家组成,并应当有不同性别和非本单位的委员。”

应该说,这个要求不低。对于百度、阿里巴巴、华为、科大讯飞这样的大公司而言,设立这样一个科技伦理审查委员会的难度不大,但对于一些创业公司而言,是一个不小的负担。

审查什么呢?

如果要审查,那审查什么呢?

《办法》给出了具体的规定,“涉及数据和算法的科技活动,数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等符合国家数据安全和个人信息保护等有关规定,数据安全风险监测及应急处理方案得当;算法、模型和系统的设计、实现、应用等遵守公平、公正、透明、可靠、可控等原则,符合国家有关要求,伦理风险评估审核和应急处置方案合理,用户权益保护措施全面得当。”

整体来看,在进行大模型领域的科技伦理审查时,关注的核心点主要集中在数据集和算法模型两个方面。

其中,数据集在科技伦理审查中扮演着至关重要的角色,因为它直接影响到大模型的训练和应用。在进行数据集的科技伦理审查时,需要关注以下几个关键点:

保障数据合法性

大模型的数据集构建通常涉及多方面的法律和伦理问题,在ChatGPT的案例中,曝光了部分训练数据集中包含的未经授权的版权内容,引发了对数据集合法性的关切。这不仅是对知识产权的侵犯,也触碰了合法数据使用的底线。

因而,在科技伦理审查中,审查者需要仔细考察数据集的来源,确保所有数据都是合法获取的,避免侵权行为。

保障用户隐私

不可否认,用户隐私保护一直做的不好,国内外都发生过很多起大规模用户数据泄露事故。例如,在2017年,美国信用评级公司Equifax遭受了一次严重的数据泄露攻击。该事件导致了约1.43亿美国公民的个人信息泄露,包括社会安全号码、出生日期和地址等;

2018年,Facebook卷入了Cambridge Analytica丑闻。一款心理测试应用未经授权地收集了约8700万Facebook用户的个人信息,包括个人喜好和朋友关系等;

2020年,全球知名酒店集团Marriott遭受了数据泄露攻击,约5.2亿客户的个人信息泄露。

大模型的训练必然要用到大量的用户数据,因而,用户隐私是大模型数据集审查中的另一大关注点。在科技伦理审查中,需要确保数据集中的个人身份信息得到妥善保护。

数据脱敏和匿名化是常用的隐私保护手段,但也需要审查者评估其有效性,确保处理后的数据不容易被还原成真实身份。此外,审查者还需要确认数据的存储和传输过程中是否采取了加密措施,防止数据在传输和存储过程中被非法获取。

价值观和偏见的审查

在科技伦理审查中,审查者需要更深入地关注数据集中蕴含的社会价值观和潜在偏见。这一点至关重要,因为数据集中的价值观会直接影响到模型的输出结果,从而对社会产生深远影响。

审查者需要关注数据集中是否存在歧视性的内容,例如种族歧视、性别歧视或其他社会偏见。如果数据集中包含这些偏见,模型的输出可能会强化这些偏见,加剧社会不公平现象。如果数据集偏向某一特定群体,模型的输出可能会在服务和产品方面存在不公平性。

那怎么来消除数据集中可能存在的价值观和偏见问题呢?

首先,我们需要关注“毒数据”。所谓毒数据,是在数据集中被恶意插入的、会导致模型产生误导性或偏见性输出的数据。审查者需要利用先进的技术手段,如对抗性学习,来检测和清除这些毒数据,确保模型训练的公正性和准确性。

此外,可以采用诸如“偏见检测算法”这样的技术,来检测数据集和模型中的潜在偏见。一旦发现偏见,需要采取适当的修正措施,这可能包括重新采样数据、加入权重、或者调整算法以避免特定群体的偏见。

在科技伦理审查中,对算法层面的审查同样重要。

张一鸣说过,“算法没有价值观”,但实际上算法是有价值观的,算法的设计和实现往往受到开发者的观念的影响。这就使得算法具有一定的导向性和潜在的偏见,而且,这种偏见可能是系统性的。

例如,目前的大部分新闻平台、短视频平台,其算法逻辑通常以用户点击历史、点赞记录等为依据,将相似观点的内容推送给用户。这种具有明显导向性的算法,可能会将用户置于一个信息的“泡泡”中,让用户只接触到与其观点相符的信息。

用户看到的信息越是与其原有观点一致,就越可能坚信自己的观点是正确的,进而加深了认知偏见。

信息茧房可能会加剧了社会对立,使得不同社会群体之间的沟通变得更加困难。当人们只接触到与自身观点相符的信息时,他们更可能形成“我们”与“他们”的对立观念,而非尊重和理解多元文化和观点。这种对立观念可能在社交媒体上被放大和激化,导致社会紧张局势的加剧。

大模型_科技伦理_审查委员会-2

在大模型产品研发和应用过程中,要吸取推荐算法带来“信息茧房”这样的教训,避免由于算法漏洞带来系统性问题。

其中,避免算法偏见的一个重要方法是增加算法的透明度和可解释性。

透明度使得审查者可以深入了解算法如何处理输入数据、进行特征选择、权衡不同目标等,帮助他们更好地识别潜在的偏见来源。

具有高可解释性的算法能够以清晰的方式展示其内部运作,使非专业人士(包括审查者)能够理解算法是如何得出某个决策的。通过可解释性,审查者可以追踪算法的决策路径,识别在该路径上可能存在的偏见点,进而定位和纠正潜在偏见。

向往AGI,但也要警惕AGI

随着技术的进步,科学家们正在努力使大模型具备更强大的自我学习和适应能力。如果模型能够在不断学习的过程中改进自身,其智能水平可能以指数级别增长。这种自我进化可能会超越我们对其目标设定的预期。

而且,一旦一个模型具备了自我进化的能力,它可能会加速自身的进化过程。例如,它可以改进自己的学习算法,设计更高效的神经网络结构,甚至自主进行硬件升级。这种自我进化的加速性,可能使得模型在短时间内达到无法预测的智能水平。

如果放任大模型的自我进化,可能在某个“奇点”让其具备自主意识。如果模型具备了自我意识,它的决策和行为将不再仅仅受限于预先编程的规则,而可能受到自身主观意识的影响,这就超出了我们的控制。

大模型_科技伦理_审查委员会-3

为了规避失控风险,我们可以设定一些能力阈值,作为审查的依据。

例如,当一个大模型的参数规模超过某一特定规模,或者当它表现出智能的自主涌现能力时,就需要进行更为严格和深入的审查。

一般来说,参数规模越大,模型的学习能力和适应性就越强。设定参数规模的阈值可以避免模型变得过于庞大,难以控制和解释。

自主涌现能力指的是模型在没有外部干预的情况下,自发性地生成新的知识、策略或技能。这种能力可能导致模型的决策和行为变得不可预测,甚至违背人类的价值观。一旦模型表现出高度自主的涌现能力,就需要对其进行更为严格的审查。

以上,我们分析了针对大模型进行科技伦理审查的必要性以及具体的审查方法。然而,需要注意的是,要对大模型进行有效的伦理审查是一项艰巨的任务,目前还存在不少困难和挑战。

其中,制定伦理审查的技术标准是一个迫切需要解决的问题。由于大模型技术的不断创新,现有的伦理审查标准可能无法及时跟上技术的发展步伐,导致伦理审查的盲区。而制定灵活、适应性强的技术标准,是一项艰巨的挑战。

与此同时,伦理审查的标准化也值得关注。不同地区、不同领域可能对大模型的伦理审查有不同的理解和要求,这种差异性可能导致伦理审查的不一致性,影响审查结果的公正性。在未来,建立全面、一致的伦理审查标准,使得伦理审查在全球范围内具备一致性和可比性,将是一个重要的发展方向。


来源:数据猿

声明:数据猿尊重媒体行业规范,相关内容都会注明来源与作者;转载我们原创内容时,也请务必注明“来源:数据猿”与作者名称,否则将会受到数据猿追责。

刷新相关文章

大模型落地政务行业,UCloud联合中科院自动化所、杭州设维打造“AI智能文案应用平台”
大模型落地政务行业,UCloud联合中科院自动化所、杭州设维打造...
科技部等10部门联合印发《科技伦理审查办法(试行)》;百度CIO李莹出任小度科技CEO丨每日大事件
科技部等10部门联合印发《科技伦理审查办法(试行)》;百度CI...
学校进军大模型,旧赛道玩出新花样
学校进军大模型,旧赛道玩出新花样

我要评论

数据猿微信公众号
2023第七届上海AI大会暨医药和医疗创新峰会
2023深圳物联网展
人工智能博览会
FMW2023全球闪存峰值
2023世界农业科技创新大会暨世界农业科技博览会
返回顶部