܄ 

臧雷振:政治学研究中的数据 不深刻的理解与困境消解

【数据猿导读】 20世纪中后期以来,数据采集工具不断丰富,从传统的调查问卷到信件,从电话到互联网,从人工操作到计算机辅助,社会科学数据收集方式更加多元。除了数据采集工具的多样化以外,数据抽样的精度和准确度也在不断提高。

臧雷振:政治学研究中的数据  不深刻的理解与困境消解

一、内容提要:数据在政治学研究中的应用日渐广泛。本文通过比较当前政治学研究中不同数据采集方式的优劣,并剖析跨国数据采集及其标准化实践的困境,指出政治学研究中数据分析面临的危机;同时,分析了大数据时代所带来的定量研究变革机遇,也对大数据背景中数据分析认知偏差进行客观解读;最后,通过对模型与理论、数据与模型关系的分析,阐述未来政治学学科发展的支撑点。本文目的不是要贬低数据的价值或放弃量化的方法,而是为推动学者未来进行更为可靠、更深思熟虑和更具创造性的政治学分析提出警醒,改善目前对数据或模型的盲目崇拜,消解数据和模型应用中的认知偏差。

随着信息技术的不断发展,以及国家与不同组织机构对数据采集的重视,政治学者在数据采集方面享有更多的便利,数据收集能力也逐渐提高。同时,国家和各类组织机构的信息公开范围逐步扩展,数据透明度日渐提升,使研究者可更容易地获取各类数据。信息技术和计算机统计软件的发展使得对海量数据分析更为便利,而大数据时代的来临,让今日政治学研究的数据运用更为流行。然而,喧嚣背后总是隐藏着诸多值得深刻思考的内在病理。比如,对于数据不深刻的理解带来诸多误解,对于纯粹依靠计算机软件的分析带来诸多知识的懈怠,对于理论知识的割裂带来数据分析价值的脆弱性。这类现象使得前美国宾州大学教授,现佩鲁斯分析统计咨询公司资深研究员菲利普·施罗特直言不讳地批评道:“当前政治学定量分析中积累了一系列恶习,使得政治研究变得越来越没有意义,不同的恶习可以归纳为定量分析七宗罪。”

国外学者对定量研究中数据使用的诘难,也伴随着国内学者的反思,如学者通过对已发表的以定量分析方法为主的论文进行再验证,来破解其研究中所存在的数据分析问题。这一点在定量分析和数据应用较为频繁的经济学、社会学领域已经屡见不鲜。学者再验证也发现,已有研究中存在各类数据应用的错误并导致不正确的解释统计结果。

由于政治学中定量分析和数据应用起步较晚,对这一领域的文献再评估一直匮乏,本文基于笔者研究实践,结合中国政治学发展现状,尝试初步探索政治学研究中数据采集方式及其所存在的问题,指出大数据时代数据运用与研究中存在的机遇以及诸多误解,进而阐述数据与理论、数据与模型的关系。当然,对这些问题的分析并不意味着要贬低数据的价值或放弃量化的方法,而是为学者未来进行更加可靠的、更深思熟虑的和更有创造性思想的研究提供理论警醒,以改善目前对数据的盲目崇拜。

二、数据采集的困境

20世纪中后期以来,数据采集工具不断丰富,从传统的调查问卷到信件,从电话到互联网,从人工操作到计算机辅助,社会科学数据收集方式更加多元。除了数据采集工具的多样化以外,数据抽样的精度和准确度也在不断提高。

尽管如此,对所采集数据的分析结果依然受抽样误差(样本个体体现目标总体的精度)以及覆盖误差(总体中的某一部分包括在样本中的概率)、无回应误差(受访者的回应与研究目的无关或没有回应)、测量误差(通常是出于提问措辞不当,调查方式问题或受访者特性导致得到错误的回答),还有数据整理误差(编码错误和数据录入时产生的错误)等其他误差的影响。在中国的政治学研究中,数据采集的困境主要体现在如下两方面:一是不同数据采集方式的优劣比较和新技术的适用性;二是跨国数据采集及其标准化。

回答第一个问题前,首先要回顾一下20世纪以来数据收集方式的发展。在早期,面对面的访谈是最主要的数据收集方式,随着封闭社区数量的增加和人们对面对面访谈的冷淡,再加上成本过高,这种方法存在诸多的困难,因此信件和电话访谈逐步代替了面对面的访谈。当前,伴随计算机的发展,各种计算机辅助的自助或半自助数据采集、电子邮件、网络数据收集也在急速发展,现在也并没有一个被普遍接受且占主导地位的调查方法。已有大量研究也指出,任何单一的数据采集方法均会存在精度、准确度、成本、效度等方面的不足,所以,过度纠结于不同调查方法的优劣选择,并不能改善数据采集结果的质量。越来越多的研究倾向于通过不同数据采集方式的混合来实现效果最大化。研究表明,仅用网络调查手段可能会削弱一些群体的代表性,但如果在信件调查之后,再进行网络调查,则与那些仅通过信件的调查结果应答率相差不多。④将现代信息技术发展带来的新方法与传统数据采集模式混合,将改善网络调查的代表性。

此外,新技术的逐渐采用,使得人们把注意力主要集中到技术的更新换代上,而对数据采集中新技术带来的问卷设计视觉问题、措辞问题等过于忽略了。如学者谢弗和戴克马指出,“不同调查需求差异与调查技术的发展,使得问卷设计变得更为复杂。现今移动设备的数量不断增长,取代了早先的台式机与笔记本电脑等连接网络的主要方式。然而,这并非切合人口统计学的步伐”。所以,针对中国政治学数据收集,存在两个显而易见的学术懈怠:一是单一格式的问卷在纸质、电话、网络等不同形式数据采集中重复运用;二是不同调研机构或综合调查机构,其问卷设置也大同小异,无法体现出不同调研机构的偏好和调查目的性。所以,未来新的问卷设计方向应当基于不同的被调查群体、被调查设备、方式以及调查目的做出相应改变,才能更好地改善数据采集工作。

第二个问题则是伴随近年来中国国际地位和影响力的提升,以及国家外交战略需求的背景,部分学者开始协调大型跨国调查或与国际跨国调查机构合作,但“政治学数据跨国采集要比经济数据复杂得多”。首先,将政治活动数据化已绝非易事,而保证这些数据能被其他国家理解就更难了。在市场经济中,货币作为普遍的交换媒介,为“无生命物品”的生产提供了通行的测量标准,国际汇率制度也为各国提供了稳定的价值衡量标准。一些国际经济组织在数据规制和收集过程中扮演核心角色,比如国际货币基金组织和世界银行。它们制定标准化的测量方法,定期收集国家经济和社会相关数据,并按照时间序列整理覆盖全球的多国数据。而政治领域缺乏这样的普遍衡量与换算标准,要想将国家政治事件、结构和输出数据化,就需要在量化方式上投入大量精力。对他国的数据采集,正如鲍曼等人在衡量政治民主时所强调的:外部观察往往依靠的是不完整、不准确乃至互相矛盾的信息。“数据诱发的测量错误”可能影响到跨国测量的质量,毕竟这些测量有赖于对复杂政治现实的抽象判断。所以,当前跨国数据收集中往往难以满足以下条件:可清晰界定观察结果的概念性框架;完整、精确、统一的编码规则;对重复测量行为进行持续监察;有观察能力和遵守规则的编码员。此外还存在若干数据不兼容不协调、重复收集等问题,造成大量宝贵研究资源的浪费。未来,国内学者在开展同类数据采集中,如何建立一个更高水平的监管机构,如何完成数据采集的顶层设计,以促进在跨国数据收集汇总中的协同和协调则是亟需思考的问题。

三、数据公开和研究再验证

在通过可靠的数据采集保证数据的代表性和效度之外,对数据、研究乃至理论本身的检验该通过何种有效手段来进行呢 近几十年来,政治学实证研究成果数量持续增长,特别是使用数据的成果不断增加,学术界也展开了若干辩论,其核心内容主要围绕:如何确保数据使用的论文发表质量,保证高标准的研究实践以及最大化地利用现有知识推动学科的未来发展,而这场辩论的解决方法则是重复验证。⑧重复验证是评价一篇论文质量高低的必要环节,它亦是后续研究进一步发展现有分析途径或寻求新分析方法的基础,重复验证还可以提升研究方法的标准、促进学术辩论的发展以及营造一种使得共享相似方法和数据的学者们可以形成广泛研究共同体的氛围。所以,定量研究成果中的数据获取及其可得性公开变得愈发重要,这将是重复验证及科学发展的先决条件。

而2012年美国政治学会将数据分析透明度写入学术伦理指南之后,代表重复验证获得学界普遍共识,如2014年多家期刊主编签发了《期刊透明度主编宣言》并逐渐演化为《数据公开和研究透明度宣言》。这一宣言主旨则是要求期刊所刊论文在发表时,作者需要保证自己数据的可信性和研究方法研究过程的透明度,要对文章所使用数据予以公开,以供他者重复验证。早在2008年就有学者统计,政治学排名前25位的杂志发现,只有7家杂志(28%)在投稿指南里包括“严格的”数据公开要求,将公开数据定为一项期刊论文发表的义务。另外4家(16%)制定了“温和的”要求,希望作者公开他们的数据,但不强制。其余14家(56%)杂志在这方面没有要求。截至2016年1月,已有28家期刊共同签署了《数据公开和研究透明度宣言》。⑩与2008年相比,无论是要求数据公开的期刊影响因子还是数量都有显著的提高。

越来越多的政治学期刊通过公开数据,提高了学科内整体重复验证标准。当然,一些顶尖刊物的文献也在不断地重复验证中显露出若干学术问题或规范化问题。诚如前文述及,目前政治学领域的重复验证工作还比较少见,在英文世界,同样也仅有的如哥伦比亚大学学者亚历山大·科波克和唐纳德·格林曾开展对已有实验室与田野背景下实验结果一致性进行再考察,以及阿什在社会规范服从研究中,对许多不同实验对象群体的重复实验。未来伴随政治重复验证的兴起和引起重视,将会使大量经不起经验的研究成果或已有理论处于颠覆的境地,政治学界应该对此有心理预期,继而对当前的理论和数据结果保持足够的警醒,而非盲目的迷信。

四、大数据时代与互联网数据

(一)大数据的机遇及其对传统数据研究困境的部分化解

所谓的大数据,是由巨型数据集所组成的数据集合。与传统的对大量样本的统计研究中所采用的抽样分析不同,大数据有显而易见的优点,诸多学者相信其能够助力对政治学中传统定量研究的突破。甚至有研究断言“大数据带来的革命将颠覆我们传统的认知和生活方式”。如社交网络蓬勃发展所带来的大数据,在日常生活和社会科学研究应用中确实带来明显的影响,学者通过收集网络使用者在社交媒体上的浏览和交流记录等数据,分析使用者特定的行为模式、政治偏好、交往方式,为实现特定目的提供帮助。如在2012年美国总统竞选中,奥巴马恰是通过对社交网络的大数据分析,有针对性地修正竞选策略获取社交媒体使用者的支持并为连任成功提供有力的支持;随后奥巴马政府也发出了大数据研究和发展倡议,指出好的决策离不开好的数据,要让大数据为各国政府国土安全、公共政策、社会保障等领域服务,让大数据成为新一轮生产力提升、发展创新等竞争的基础。如,美国零售业通过大数据能提升60%的毛利;美国卫生保健系统、欧洲政府机构通过对大数据创造性的高效使用,有效地提升了政府公共财政的使用效能。

作为政治学研究对象的大数据有以下特征:数据量大(Volume),类型繁多(Variety),价值密度低(Value),以及速度快时效高(Velocity),即所谓的“4V”特征。在某种程度上,大数据的这些特征一定程度上化解了传统数据采集中的不足之处。在数据分析层面,大数据通过分析较大的样本规模,允许对理论开展低成本的、更广泛的实验验证,允许对理论开展持续的评估。在数据采集层面,以网络数据采集为例,一方面是实现完整采集网络中的音、视、文、字等;另一方面是通过诸如网络爬虫等采集系统日志等历史记录。由于这类数据往往通过软件来提取,适用于结构化、半结构化及非结构化等不同类型数据的混合处理,可以实现最大限度保留更多的数据信息,为定量和定性研究方法的不同运用打下基础,符合当前混合研究兴起的趋势;此外,由于系统化的软件提取,其对数据的一致性要求不高,使得所获得的数据具有可扩展性,进一步扩大数据研究议题的范围和空间。最后,大数据虽然数量庞大,但获得时效却在不断缩短,这不但使学者更加及时和敏锐地捕捉社会发展变迁的证据,还有利于通过历时性比较来进一步验证数据的效度,特别是信息技术的进一步发展还使得前述政治学研究中的数据公开和验证等困境得到相当程度的缓解。

当然,正如科学哲学家波普尔所说,有科学证明的逻辑,但不存在科学发现的逻辑。大数据为发现社会科学发展规律和现实提供验证和支撑,如果脱离数据收集背景,大数据没有任何意义。特别是,更多的可接触的数据并不意味着是符合学术伦理道德的数据。即使和政治学相临近的学科——社会学——沉迷于追求数据科学的目标,也一直未成功。围绕大数据神话产生的争论如同人们对各类乌托邦和反乌托邦言论的争执一样多。可见,大数据并不总是好的数据,这就需要我们客观看待大数据所存在的问题。

(二)大数据亦有大问题

数据采集的困境和数据公开再验证所存在的问题,在很多人看来,都将被大数据迎刃而解。事实真的如此吗 本文在此需要澄清学界两个常见的认知误区:一是关于大数据能解决抽样偏差问题,或者说大数据是否等同于全样本数据;二是互联网大数据效用问题。

首先,对于上述误区的解释,可以通过例子来更加直观的认识。当前,社交媒体用户出现爆发性的增长,越来越多的学者希望通过对社交媒体数据的搜集来调查或测量相关政治议题发展变化的主要趋势,并认为这种海量的社交数据将有效地解决传统抽样中的偏差问题。然而,这存在诸多挑战,第一,尽管这方面的数据惊人,但严谨的研究者很少会认为社交媒体的用户能代表某国的全体公民。就中国而言,其在2016年初互联网普及率刚超过50%,尚有巨大的体量的公众无法接触互联网,如果仅仅依靠社交媒体数据也就难以测量这部分群体的行为特征。第二,社交媒体用户群体对外界来说不是可用的抽样框架。研究社交媒体用户只能使用各种非概率方法如滚雪球抽样。第三,社交媒体用户隐私意识增强,他们可以用层出不穷的新工具控制他人可访问内容。这使得数据被动收集的范围从全部用户缩小到了一部分愿意公开分享信息的用户,而且这个群体的规模会日益缩小。抽样调查数据的说服力是建立在精心设计的抽样框和抽样技术上的。尽管大数据时代带来数据量级上的增加,然而,其并不是全样本数据,所以,“来自社交网络的丰富大数据能增加我们对特定政治议题的理解,但近几年内都不会取代其他调查方式”。

其次,互联网数据并不总是具有较高效用。如互联网问卷的应答者多是学生以及为了获得报酬而多参与调查的无固定职业者等。当获得回报成为人们填写问卷的驱动因素时,人们在调查中给出“积极”回答的动机就值得怀疑了。特别是当前的互联网数据采集并不遵循随机的策略,所以必须考虑非随机选择带来的偏差。有学者对此给出技术性处理方法,如考虑到数据采集中的选择性与概率性因素,就必须知道并非每一个处在调查范围内的个体都有相等的可能性纳入到研究当中。最近进行的一些对原始数据进行调整的尝试,例如通过加权与调整采样策略,意图抵消数据中的非随机倾向,并试图找出在线调查与其他方式的不同(例如绝对平均误差、最大绝对误差、显著差异的数量等)。虽然有调查表明,一些事后的分层策略——包括人口统计学方法与倾向性加权,并运用不同的样本选择方案——可能会抵消一些差异,但这不足以应对所有的情况。

此外,大数据的兴起及其带来的“数据驱动的科学”鼓励人们进行被动的数据收集,而不是主动的实验与测试,也诱使人们搞“数据欺瞒”(hornswoggling,即缺乏统计学依据的数据欺诈)。加之,大数据更多是原始数据,如何分析和数据挖掘则受到学者参差不齐研究水平影响。所以,在对上述问题保持足够的警醒前,很多学者无法有效避免大数据或互联网数据所带来的各种偏差,从而导致后续的定量分析结果并不具有可信度和可靠性。所以,笔者认为,大数据或互联网数据之所以往往是补充,而不是替代现有的抽样数据,部分原因就在于,即使它们能解决一些问题(如改善测量,减少成本),但依然有其他问题(例如覆盖率、无应答)还是无法解决。

五、政治学科发展的支撑:数据、模型,还是理论 

自20世纪行为主义及后行为主义思潮兴起以来,有关政治学研究中数据、模型与理论的作用及冲突一直争执不断。随着互联网在政治学研究的参与度日渐增加,不仅之前的理论和方法应当加以跟进,还要进一步地重新思考政治学科发展支撑点在哪里。通过采用新证据对旧有理论和研究的重新验证,一些问题被逐渐澄清,当然也有一些存在缺陷和不合时宜的理论被推翻重建。这使得政治学未来发展创新更为必要,但究竟要依靠何种创新 数据、模型和理论在政治学中的地位各自如何 对于这些问题的不同回答构成争议的核心。前文已经指出,当前数据采集、处理、使用过程中存在诸多问题,还有待进一步改善,而与数据密切相关的模型呢 对此,本文认为其涉及如下三个问题需要进一步探讨。

一是模型与数据的关系。有学者指出,在当前涉及模型和数据的论文中,通常前十分之九的篇幅都是详细论述模型的生成、发展,而最后十分之一的篇幅中却加入一份无关紧要的数据分析,这样做毫无疑问只是为了满足审稿人。但只将数据分析看作研究的终点,是过于关注模型检验的不幸结果。模型本可以吸纳和解释新的实证发现,但为了表明模型主要的预测是“确证的”或“证实的”,却牺牲了模型原本的优势。这种研究策略不能被视作模型和数据的整合,所以如何选择适合数据的贴切模型,恰当地将数据和模型完美的结合始终成为研究者心头萦绕的焦点。

二是模型与理论的关系。20世纪七八十年代,模型主要用于扩张概念,提高概念的适应性,但检验模型假设或预测的结果并不理想。如莫伊认为理性选择模型缺乏实证性内容,阿肯则警告说数学模型“只是工具,不是信奉的对象”。本来,数据建模和理论分析有时会互相启发互相支撑,但当前的政治学领域却被划分为理论分析和实证探索两大阵营。这种割裂既带来研究者的彼此轻视或忽视,也使得学科的发展受到阻碍。比如,诸多已发表文献的研究动机多为数据驱动、模型驱动,而非研究议题驱动的研究结果,忽略学科理论创新和知识有效积累。

三是简单模型和复杂模型的关系。首先有必要回顾一下托马斯·谢林的经典论述:“一个模型可视作对一系列相互关系的精确而简洁描述,这些关系足以产生所讨论的现象。或者,一个模型可视作实际的生物、机械或社会系统,以特别清晰的形式具体呈现必然产生特定现象的关系。这两种‘模型’的含义并无多大区别。”一方面,当回顾过去30年量化研究的主流期刊,就会发现统计模式的单一性:几乎所有的分析都运用了线性回归和逻辑斯蒂回归模型。学者批评道:“大量来自社会心理学、社会学或仅仅是任意经验主义(casual empiricism)的自变量,被匆忙地套用垃圾桶般的线性回归模型方法。”而线性模型可能存在变量选择偏差、共线性及结果的不稳定等问题;另一方面,复杂的技术模型也不是总是那么有效,当前诸多的研究成果存在“为复杂性而复杂”,期望运用最新的技术会有利于将相当平庸的分析发表到顶级期刊。但如何在简单模型应用和复杂模型选择间“找到正确的平衡是有挑战的”

当然,在实用主义盛行的背景下,在科研成果要么发表要么死亡的范围中,可以预见的未来,数据和模型依然会占据重要的地位,理论的式微并不会因为诸多学者的呼吁而有所减轻。如哈佛政治学教授帕特南和斯考切波均无不表示对当前学者逃避政治研究“宏大主题”的担忧。此外,对数据和模型的追求还造成大学的研究者和思想者“边缘化了自己”。这种排外文化在学者蔑视影响力和受众的同时,还美化了神秘的晦涩难懂的学术化表述。

学者都有一种潜在的欲望,在未完全理解数据、模型和理论的情况下,就运用相应的数据、模型或理论来包装自己的研究成果。这种长久以来的学术追求的惰性如此根深蒂固,在政治学领域表现得尤为明显,这也使得政治学领域的学术创新在20世纪末期以来变得尤为艰难,也令政治学研究难以形成有效的政策建议,不断拉大研究者和实践者需求之间的鸿沟。但什么是研究者和实践者建立强有力的伙伴关系所必不可少的催化剂,以实现研究者团体的社会价值 

政治学科未来的发展,笔者认为,一些研究所指出的降低定量课程难度等方法并不可取,而资深研究者所呼吁的回归“宏大理论”在短期内也难以实现。一方面,当前对数据和模型的诸多误解和误用恰恰是由于方法论训练的不足而导致;另一方面,回溯政治学发展史,自亚里士多德以来,相关宏大的政治学理论也是屈指可数。未来学科内部的方法论融合和借鉴吸收其他学科的方法论,避免对单一方法或单一数据的盲目崇拜,客观看待新信息技术及大数据的优劣,进而建构政治学数据采集标准同样也是消解目前困境的重要手段之一。此外,还需客观认知理论、数据与模型之间的关系,简单模型与复杂模型之间的关系等,避免由于对理论、数据和模型的不深刻理解带来应用的误解。


来源:马克思主义与现实

声明:数据猿尊重媒体行业规范,相关内容都会注明来源与作者;转载我们原创内容时,也请务必注明“来源:数据猿”与作者名称,否则将会受到数据猿追责。

刷新相关文章

我要评论

精品栏目

[2017/07/27]

大数据24小时

More>

[2017/07/24-28]

大数据周周看

More>

[2017/07/24-28]

大数据投融资

More>

[2017/07/24-28]

大咖周语录

More>

[2017/07/24-28]

大数据周聘汇

More>

[2017/07/24-28]

每周一本书

More>

返回顶部