宗晓华,王立成,李远贤 | 大学的魔镜:全球十五项世界大学排名的比较分析与反思

发布人:广东省高等教育学会   发布时间:2024/2/22 10:01:54   阅读:714

文章摘要

随着世界大学排名数量的增加,大学及其利益相关方陷入对排名系统的认知混乱与选择困境。为了更全面地评鉴世界大学排名的学术价值及其市场逻辑,研究从指标体系的价值导向、评价结果的相关性、排名的科学有效性和市场影响力四个维度,对当前全球十五项世界大学排名进行比较分析。研究发现:(1)各项大学排名的指标体系在职能结构上存在一定的分化,发展型高等教育体系的大学排名更强调人才培养;(2)各项大学排名的评价结果相关度较低,发展中与发达高等教育体系的差距显著,而且这种差距在偏向大学产出质量的排名中更大;(3)基于“柏林原则”的量化评估显示,各项大学排名的科学有效性得分普遍不高,一些排名在目标定位、方法论的科学性与透明度上存在较为严重的缺陷;(4)世界大学排名的科学有效性和市场影响力之间存在明显的失衡,这种失衡可以从全球高等教育的中心-外围结构,以及排名数据库在期刊分布、语言覆盖、调查群体等底层逻辑上的市场迎合来解释。为使世界大学排名更客观、有效地提供镜鉴,未来应从方法论层面提升大学排名的科学有效性,理性看待和合理应用大学排名提供的有效信息,立足本土使命设定优先事项,引导排名的国际话语权。


目录

一、引言

二、研究设计

(一)研究对象

(二)研究方法

(三)数据来源

三、世界大学排名指标体系与排名结果的比较分析

(一)职能结构的分化与绩效导向的趋同

(二)大学排名结果的相关性与国别偏向

四、世界大学排名的科学有效性与市场影响力评估

(一)排名科学有效性的量化评估

(二)排名的全球市场影响力评估

(三)科学有效性与市场影响力的失衡及其原因

五、结论与政策启示


一、引言

高等教育是教育强国建设的龙头,而世界一流大学则是高等教育强国的重要标志。谁拥有世界一流大学,谁就有可能在全球经济变革中占据优势地位。正因如此,20世纪90年代以来,越来越多的国家开始将建设世界一流大学纳入高等教育政策之中。随着各国世界一流大学建设项目的不断推进,这场全球范围内的“大学军备竞赛”变得日益激烈[1]。在此背景下,世界大学排名应运而生,满足了人们对“谁是世界上最好的大学”的评价信息需求和社会心理需要,并以此在全球形成广泛的市场影响力。有证据显示,超过64%的留学生在选择国外高校时参考过世界大学排名[2],超过80%的大学管理者希望提高本校的世界排名,一些国家甚至直接将大学的世界排名作为高等教育改革的任务目标[3]。

世界大学排名的影响力与日俱增,但学界对于世界大学排名的批评也不绝于耳。这些批评主要集中在两方面:一是方法论存在缺陷,主要体现在“导向不可取、学校不可比、标准不一致、指标不匹配、数据不可靠”等方面[4];二是排名结果难以取信,主要表现为国家与地区偏向明显,且不同排名之间结果差异极大[5]。对于这些问题,一些大学选择视而不见,在某些排名中排位靠前或位次提升时便自我陶醉,高调宣传。与此相反,一些大学对于自己排名靠后或位次下滑的排名则怨声载道。更有一些知名学府,如中国人民大学[6]、首尔大学[7]、哈佛大学医学院[8]等,公开宣布退出相关世界大学排名,并拒绝向排名机构提供数据和支付相关费用。

然而,大学排名作为一种对大学的社会评价,其产生和发展源于广泛而强烈的社会需求。无论是学生升学、雇主招聘、国际交流,还是管理者的决策参考等,都需要获得简洁、清晰和可比较的大学相关信息。简单地拒绝和退出排名,只会加剧而不是解决信息的供需矛盾。

当下,真正的问题是:如何理解和看待这些纷繁复杂的大学排名?它们各自的价值取向和操作方法是什么?哪些排名体系及其结果更具学术价值和参考意义?哪些排名方法和结果需要慎重对待和批评质疑?

为了推进对世界大学排名学术价值及其市场逻辑的理解,本研究以全球十五项世界大学排名为研究对象,首先比较各项大学排名在指标体系与排名结果方面的共性特征与差异,然后依据国际公认的“高等教育机构排名的柏林原则”,通过量化方法对各项大学排名的科学有效性进行评估,并借助网络计量学指标来分析各项大学排名的市场影响力差异。在此基础上,深入讨论世界大学排名科学有效性与市场影响力之间的失衡及其原因,最后从排名的改进思路、理性应用与国际话语权等三个方面提出政策建议。

二、研究设计

(一)研究对象

本研究对世界大学排名的选择以国际排名专家小组官方网站(http://ireg-observatory.org)所公布的排名清单为准,共计十五项世界大学排名,各项世界大学排名的创立地区、创立时间、创立机构、发布周期和榜单高校数量等信息如表1所示。在这十五项世界大学排名中,创立时间最早的是2003年上海交通大学创立的ARWU排名,创立时间最晚的是俄罗斯校长联盟于2017年创立的MosIUR排名;从创立机构所属地区来看,欧美地区有10项排名,亚洲地区有5项排名,其中中东地区有2项排名。

(二)研究方法

本研究拟从指标体系、排名结果、排名的科学有效性与市场影响力四个维度对世界大学排名进行比较分析。在指标体系维度,主要从指标的职能涵盖与绩效导向两个方面进行分析。在排名结果维度,主要从排名结果的相关性与国别分布方面进行分析。对于十五项世界大学排名指标体系与排名结果的比较分析,不仅为深入理解排名的不同价值偏向奠定基础,而且为进一步的科学有效性与市场影响力评估提供逻辑前提。


在排名的科学有效性维度,本研究以“高等教育机构排名的柏林原则”(以下简称“柏林原则”)作为评估标准。“柏林原则”是国际排名专家小组于2006年提出的关于大学排名在排名目的、指标设计与权重分配、数据收集与处理以及结果公布等四个方面的一系列要求,具有较高的国际认可度。

研究依据Stolz等人[9]基于“柏林原则”所设计的评估量表,将“柏林原则”的规范性标准转化为能够量化的观测点,详细内容如表2-1至表2-4所示。其中,定位清晰、分类评价和多元构建三个观测点对应的是“柏林原则”中排名目的维度的标准,指标的全面性与效度、指标信度与可复制性、指标的产出导向和指标透明与稳定四个观测点对应的是指标设计与权重分配维度的标准,数据客观、抽样科学两个观测点对应的是数据收集与处理维度的标准,客户友好观测点对应的是结果公布维度的标准。为了保证“柏林原则”量表得分结果的客观性,本研究对世界大学排名进行科学有效性评估的过程采用双盲方式。

在市场影响力维度,互联网作为全球信息传播的基本媒介,承载了社会大众对某类信息关注的网络痕迹,因而相关的网络计量学指标可以较为准确地反映某类信息在社会大众中的影响程度。本研究选取谷歌搜索指数、网页访问量与网页流量排名等指标来测量世界大学排名的市场影响力。

(三)数据来源

本研究使用的数据主要分为两部分:一是世界大学排名本身的指标体系、排名结果以及基于“柏林原则”量表评估排名科学有效性的数据,这类数据直接来源于各项世界大学排名的官方网站;二是网络计量学中用于反映世界大学排名市场影响力的指标数据,这类数据从第三方数据分析网站中获取。具体来看,谷歌搜索指数来源于google trend网站,网页访问量与网页流量排名数据来源于Alexa官方网站。由于网络计量学数据变化较快,为了保证可比性,此类数据的采集集中在2022年10月。

三、世界大学排名指标体系与排名结果的比较分析

作为大学排名的基本构成要素,指标体系是了解大学排名特征的重要切入点。从组成结构来看,指标体系包括指标与权重,前者蕴含了排名对大学办学职能与绩效的评价范围,后者反映了排名对相关评价内容的重视程度,二者的结合决定了排名结果所映射的数据信息。因此,本研究从排名对大学进行评价的职能面向、绩效导向以及结果走向等三个方面进行分析。

(一)职能结构的分化与绩效导向的趋同

从中世纪大学到现代大学,大学的职能在不断扩充与丰富,形成了当下以“人才培养-科学研究-社会服务”为核心的职能结构。然而,从指标涵盖的职能范围来看,世界大学排名在评价大学职能的维度上并不一致。对于大学的核心职能,Nature index、NTU、US NEWS和URAP排名仅对科学研究进行评价,Scimago、Reuters Top 100和WRWU排名对科学研究与社会服务进行评价,ARWU、QS、RUR、CWUR和UI GM排名对人才培养和科学研究进行评价,而THE和MosIUR排名则强调全面评价大学的三项核心职能(详见表3)。由此可见,关于世界一流大学应该注重何种职能或职能组合,并没有一个一致的价值取向。也因此,欧盟资助创立了U-Multirank排名,该排名不提供固定的指标组合与权重分配,而是希望提供一种“用户驱动”的排名规则,由用户根据需要自行选取指标并赋予权重,以此满足不同人群对世界一流大学的价值偏好。

从指标在不同职能间的权重设置来看,各项世界大学排名的指标体系均包含科研类指标,其中有12项世界大学排名对科研类指标分配的权重在50%以上,有6项世界大学排名的科研类指标占80%以上的权重。换言之,多数排行榜认为,判断世界一流大学的标准,主要是看其是否拥有一流的科研水平,而非人才培养和社会服务。然而,与普遍轻视人才培养的主流评价倾向不同,出自沙特阿拉伯的CWUR排名和俄罗斯的RUR排名别出心裁,赋予人才培养类指标的权重分别达到了50%和52%,可谓排行榜中的一股清流。一个可能解释是,后发型高等教育体系在科研方面缺乏绝对的优势,而且其经济体系与技术前沿差距较大,更需要高等教育培养适切本土产业发展的人力资本,因而他们更为重视大学的人才培养功能。

在绩效导向方面,大学排名的评价范畴往往离不开大学办学的投入与产出、规模与质量,评价范畴的不同意味着需要采取不同的方式来解读排名结果。从指标的投入-产出导向来看,表4中世界大学排名的产出类指标所占权重不低于70%,且有8项世界大学排名拥有100%权重的产出类指标,这表明了现存的世界大学排名均是一种产出导向的绩效评价体系。与此同时,就指标的规模-质量导向而言,仅Nature Index和URAP排名的指标均属于规模性指标,即指标的得分与大学的办学规模直接相关,而QS、RUR和THE排名则是由100%权重的质量性指标构成,其他大学排名均包含规模性指标与质量性指标,且质量性指标权重均高于规模性指标权重(Scimago排名除外),这暗示着质量导向的评价方式是当前高等教育排名机构的主流评价范式。

从投入-产出与规模-质量的嵌套结构来看,所有世界大学排名产出类指标中规模性指标与质量性指标所占权重均高于投入类指标,这再次说明了大学排名偏好于评价大学的产出水平。与此同时,有10项世界大学排名的权重是较多赋予产出类指标中的质量性指标,即世界大学排名主要强调评价大学的产出质量。此外,值得一提的是,仅Scimago排名对大学投入类指标中的规模性指标赋予一定权重,但也仅限于3%,这一事实从侧面反映出基于投入规模视角来评价大学的办学绩效可能不具有较高效度。

(二)大学排名结果的相关性与国别偏向

对于同一所大学,采用不同的排名系统进行评价,其结果是否具有较高的一致性?这里采用相同大学在不同排名中位次的Spearman秩相关系数进行排名结果的一致性分析。如图1所示,各项世界大学排名结果间的相关系数大多低于0.8,且同一世界大学排名结果与其他不同排名结果的相关系数平均值均低于0.71,说明各项排名在评价大学的全球位次时存在较低的一致性。值得关注是,表3和表4显示,NTU排名与URAP排名的指标体系差异要高于其与US NEWS排名的指标体系差异,但图1却显示前者的相关系数为0.90,远高于后者的0.83。这意味着按照一定规则对各项指标的得分进行综合加总,该操作固然可以得到一个综合排序,但反而可能产生意外的虚假统计信息[10]。

由于不同排名的结果一致性较低,这必然会出现排名的大学及其所属国家的偏向。为了理清世界大学排名在国家层面的评价结果差异,这里以美国与中国作为发达和发展中高等教育体系的代表,对不同排名的国别偏向进行分析。

如表5所示,无论是哪一项世界大学排名,抑或是哪一个排名区间,我国上榜高校数均低于美国。其中,Nature index排名TOP200榜单中美国高校数是我国的1.4倍(最低),MosIUR排名TOP200榜单中美国高校数是我国的7.7倍(最高),这说明各项世界大学排名在国家层面的评价结果存在突出的差异。

在各项排名中,我国与美国在高等教育体系方面存在明显的差距,但这种差距在偏向大学产出质量的排名中更大。相比而言,产出类质量性指标权重低于50%的世界大学排名,对我国高等教育会产生更好的评价结果。例如Scimago、Nature Index、URAP排名TOP100高校中我国上榜高校数超过15所、TOP200高校中我国上榜高校数超过30所。另一证据是,Nature Index排名与NTU排名的指标体系均是100%的科研类产出指标,唯一的区别在于前者的质量性指标权重比后者低60%(表3和表4),该差异所造成的后果是前者的我国TOP200上榜高校数比后者多了25所。

四、世界大学排名的科学有效性与市场影响力评估

前文的分析表明,不同世界大学排名对全球高校的排名结果各有侧重和偏向。这就引出了使用世界大学排名时面临的两类问题:一类是应然问题,即大学及利益相关方应该选择哪一项世界大学排名作为评价大学办学水平的参考;另一类是实然问题,即排名市场中哪一项世界大学排名更受社会大众关注或认可。通过理解并比较世界大学排名使用的应然与实然,将有助于理解大学排名本身的运行逻辑。鉴于此,本研究借助“柏林原则”量表与网络计量学指标对十五项世界大学排名的科学有效性与市场影响力进行评估。

(一)排名科学有效性的量化评估

从“柏林原则”量表总得分来看,所有世界大学排名的得分距离理论满分还有较远距离,即使是得分最高的ARWU排名,其得分占理论满分的比重也仅是略超过80%。换言之,这些世界大学排名的科学有效性均不是很高。与此同时,就得分的分布而言,ARWU排名的得分为41.5分,占理论满分的比重为83%,CWUR、US NEWS、WRWU、NTU、Nature Index、RUR以及URAP等7项排名的得分在35分至39分之间,占理论满分的比重为70%~80%,其余7项世界大学排名的得分低于35分,占理论满分的比重低于70%。这说明世界大学排名的科学有效性存在明显的分层,不同层级排名的科学有效性差异较大。

从“柏林原则”量表的得分结构来看,既有的世界大学排名在结果公布维度上的得分具有一致性,而在另外三个维度上的得分存在较大差异。

(1)在排名的目的维度上,ARWU和QS排名的得分最高,均为11分。其中,ARWU排名的得分优势在于,它不仅详细论述了排名的目标群体、排名提供的信息以及排名存在的潜在影响等,同时提供了分学科的大学排名与体育科学的大学排名(考虑了高等教育发展的多样性),而且还使用文献计量学、学生和教师等三类信息渠道,并且基于不同信息来源所得到的指标数据都被单独列出;QS排名的得分亮点与ARWU排名类似,但其比ARWU排名更为突出的一点是它既提供分学科的大学排名,还提供分地区的大学排名与分课程类型的大学排名。

(2)在指标设计与权重分配维度上,有9项世界大学排名的得分在17分及以上,距离理论满分20分的差距较小,这说明多数世界大学排名在该维度上的科学有效性相对较高。其中,WRWU排名的得分最高,为18分,该排名一个明显优于其他排名的特点是对各指标进行赋权的过程进行了详细说明,绝大多数世界大学排名仅仅只是列出了指标占据的权重。

(3)在数据的收集与处理维度上,各项世界大学排名的得分呈现两极分化,有9项世界大学排名的得分都达到了理论满分,而其余世界大学排名则均在6.5分及以下。以该维度得分倒数前三项排名为例,THE和QS排名存在的明显缺陷是声誉调查的抽样过程并不清晰、不透明,UI GM排名的突出不足是所有数据均依赖大学的自我填报,而不是通过第三方机构获取。数据的收集与处理过程的不透明为“操纵排名”以迎合市场需求提供了可能的空间。

(4)在结果公布维度上,各项世界大学排名不存在分差,均为3分。究其原因,所有世界大学排名都不允许使用者自行调整权重与指标来获取新的排名结果(U-Multirank排名除外)。

(二)排名的全球市场影响力评估

如表7所示,不考虑相关缺失数据,QS、THE和WRWU排名的全球网站排名最高,即这3项世界大学排名较其他排名对市场的影响力更强。其中,QS和THE排名的全球网站排名在一万名以内,远高于其余排名;WRWU和ARWU排名的全球网站排名在一万名至十万名之间,Scimago、RUR、CWUR和U-Multirank排名的全球网站排名在十万名至五十万名之间,Nature Index、URAP、NTU和MosIUR排名在九十万名开外。这说明各项世界大学排名的市场影响力差异极大,少数排名几乎垄断了全球的排名市场。

从全球谷歌搜索指数来看,QS、THE、US NEWS、ARWU和WRWU排名的搜索指数远高于其他排名,结合表10结果,有理由认为QS、THE、US NEWS、ARWU和WRWU排名是全球市场影响力TOP5世界大学排名。与此同时,QS排名的谷歌搜索指数明显远高于其他排名、THE和US NEWS排名的谷歌搜索指数整体相似,但均高于ARWU和WRWU排名,这一排序与表10排序基本相似。这表明全球排名市场形成了“一超多强”的结构格局,“一超”指的是QS排名,“多强”指的是THE、US NEWS、ARWU和WRWU等排名。考虑到谷歌浏览器在中国无法正常使用,这可能会影响该结果,但本研究通过对各项世界大学排名的百度搜索指数进行统计后,发现原有结果依旧成立。

(三)科学有效性与市场影响力的失衡及其原因

从已有评估结果来看,ARWU和CWUR排名在市场影响力方面的排名明显不如在科学有效性方面的排名,科学有效性排名末端的QS和THE排名反而拥有更强的市场影响力。不难看出,世界大学排名的科学有效性并不必然意味着市场影响力,两者之间出现了严重的失衡现象。

作为一种社会评价,大学排名结果能否发挥影响力,既取决于供给方,也取决于需求方,更取决于全球高等教育的权力与市场结构[11]。

从排名的国家分布可以明显看出,盎格鲁-撒克逊体系中的QS、THE和US NEWS排名几乎垄断了全球大学排名市场,欧洲大陆体系的大学排名处于式微状态。这种盎格鲁-撒克逊体系主导的全球高等教育评价格局,实际上反映的是英美国家在高等教育中的霸权地位。也就是说,全球高等教育体系实际上形成了一种以英美国家为中心、以其他国家为边缘的结构秩序,中心国与外围国之间存在一种被依附与依附、控制与被控制、生产与消费等关系[12]。在这个意义上,QS、THE和US NEWS等排名体系,以英美国家研究型大学为原型,构建了世界一流大学的理想模板,并在全球进行输出和推销,最终被处于外围的发展中高等教育体系所接受。在这个过程中,排名的影响力反过来又强化了英美国家高等教育在全球市场上的权力和地位。

这种基于中心-外围的结构主义解释虽然可以回答源自不同高等教育体系的世界大学排名具有不同的市场影响力,但却无法有效解释为何在同一体系下不同的世界大学排名市场影响力的差异。这里以QS排名和US NEWS排名为例,尝试从期刊分布、语言覆盖和调查群体三个方面,对排名所使用底层数据库进行解析,为理解这个问题提供一定的线索。

从排名使用的文献数据库来看,QS排名使用的是爱思唯尔的Scopus,US NEWS排名使用的是汤森路透的Web of Science(Wos)。

(1)在期刊覆盖范围方面,Wos涵盖中国、法国、荷兰以及俄罗斯等非英语国家的期刊数量分别为269、250、927和193种,而Scopus涵盖的数量基本上是前者的两倍,分别为489、510、1498和314种,相应的期刊占比也均高于Wos(详见表8)。

(2)在文献的语言覆盖方面,Scopus涵盖的中文、日语、韩文以及法语文献的占比分别为2.76%、0.29%、0.11%、0.70%,而Wos涵盖的相应语言文献仅分别为0.25%、0.05%、0.07%、0.58%[13]。显然,相较于US NEWS排名,QS排名纳入了更多的非英语国家本土语言的学术文献。

(3)从学术声誉调查来看,QS排名更注重来自非英语国家的调查反馈,例如2016年QS排名的调查问卷有39.4%来自欧洲、19.6%来自亚太地区,而US NEWS排名的调查问卷来自欧洲和亚太地区的占比均低于QS排名,分别为30%、17%[14]。

对排名底层数据库的结构性分析可以发现,“魔鬼存在于细节之中”。相比于US NEWS排名,QS排名的市场影响力之所以更强,一个不能排除的原因是其主动在排名数据库上做出了技术性的策略调整,从而迎合了一些国家急于提高本土大学的全球地位的心理需求。一个更为明显的例子是,俄罗斯于2012年启动“5-100计划”,Scopus也从2012年开始纳入更多俄语期刊和论文,最终俄罗斯高校在Scopus数据库检索到的科研产出呈现增加趋势[15]。

从这个角度看,一所大学或一个国家在某项世界大学排名中的位次提升,并不一定是因为自身办学水平的提高,而可能是由于排名系统做出的迎合市场需求的技术性调整。也就是说,不是你在改变,而是你所照的“镜子”在悄悄地改变,只是这种基于市场逻辑的改变,并不必然是变得更真实而已。

五、结论与政策启示

世界大学排名虽然自产生以来便饱受争议,但它们并未退出历史舞台,对大学及其利益相关方的影响也未曾减弱。在这样的现实背景下,除了选择特定排名进行自我陶醉和营销宣传,或者对相关排名采取抵制态度甚至宣布退出,一种更为务实的态度是,通过理性的对比和技术性的解构,更客观地评鉴不同世界大学排名的学术价值及其底层逻辑。本研究通过对十五项世界大学排名进行比较分析,有以下主要结论:

第一,各项排名在评价大学的职能面向上存在一定的分化,即不同的排名系统对大学职能的侧重不同,主流排名系统更注重科学研究的职能,而部分源于发展型高等教育体系的排名更注重人才培养。这种分化也折射出在不同的高等教育体系中,大学的职能重心和发展优先事项存在异质性。

第二,各项世界大学排名指标在绩效导向上呈现出较高的趋同性,均倾向于通过质量性指标与产出性指标来评估大学的办学绩效,但在产出-质量类指标上赋予的权重存在差异。

第三,世界大学排名在机构和国家层面的评价结果一致性较低,这在偏重评价大学产出质量的排名中尤为明显。另外,发展中和发达高等教育体系之间的差距在各项排名中相差很大,这可能给政府、大学及其利益相关方进行明智的判断造成困难。

第四,基于“柏林原则”的量化评估显示,各项大学排名的科学有效性普遍偏低,一些排名在目标定位、方法论的科学性、透明度上存在明显缺陷,这将损害排名结果的决策参考价值。

第五,世界大学排名的科学有效性与市场影响力之间存在明显失衡。这种失衡可以用全球高等教育的中心-外围结构,以及排名数据库在期刊分布、语言覆盖、调查群体等底层逻辑上的市场迎合来解释。

学术排名的初衷在于为利益相关者提供有效信息和决策参考,其存在和发展具有一定的社会合理性。然而,过度追逐排名的虚荣心理和迎合市场需求的策略行为,已使排名变成了一面魔镜,将扭曲甚至虚假的位次映射为大学的现实形象。虚幻的繁荣会使一些大学和决策者沉迷,更多的大学是被裹挟其中,在排名机构设定的逻辑框架下通过各种手段追逐数字绩效。大学似乎已经失去足够的勇气去直面排名的缺陷与荒谬。对于世界大学排名的“魔镜”,我们应当通过批判和反思来解构其虚幻的映像,端正心态,磨平镜子,使其能够客观、公正和多角度地反映大学的办学水平。

第一,从方法论层面改进世界大学排名,提升排名的科学有效性。

大学及相关领域的研究者应该严肃地批评排名哲学及其方法论层面的缺陷,揭示不当排名对大学学术活动带来的消极影响。同时,要针对现有排名的缺陷,敦促排名机构加以改进。有三个方面的改进更为迫切:

一是排名机构加强与利益相关群体的信息沟通,通过分类评价和多元构建方式,放弃单一的排名指数,为大学及学生、家长、企业等群体设计更有价值的指标和“用户导向”的多元指标组合方式,满足用户的多样化需求。

二是提高数据搜集和处理的透明度,公布详细的指标说明、权重设置和数据处理方法,在方法论层面确保排名结果的可复制性。如上市公司财报一样,排名结果和非涉密数据应由第三方进行审计并出具报告,从而提高排名的公信力。

三是延长排名周期,契合人才培养和知识生产周期。大学的教学和科研活动,尤其是基础研究和基础学科人才培养,具有较长的周期性和效益的滞后性,不可能在短时间内显现和改变。年度排名会混杂很多随机因素和无效信息,干扰大学秩序和生态,建议延长排名周期,以3~5年甚至更长区间为宜[17]。

第二,理性地看待世界大学排名,合理地应用不同排名提供的多角度信息。

世界大学排名的影响力累积至今已非一日之寒,消解这种强加于大学的规制力量也并非易事。对于大学而言,盲信排名并不可取,退出也并非万全之策。对于发展中高等教育系统而言,退出不仅会失去很多发展机会,而且也会失去判断自身发展状况的可比较信息。对于世界大学排名,一个可取的态度是:理性看待,合理应用,适度参与,主动引导。由于指标体系各有侧重,每项世界大学排名只能从一个侧面反映大学办学情况,无法提供一个全息对比映像。而且,基于加总指标综合得分会造成一定的信息失真。

因此,面对排名结果,大学必须要有主体意识和超然态度,不能因在某一项排名中名列前茅而陶醉,也不能因在另一项排名中名落孙山而沮丧。要通过适度参与,深入了解排名的设计逻辑,合理应用排名所提供的可比较信息,根据院校特色和本土需要,进行转化重组、有针对性的分析,为诊断发展问题、优化资源配置,改进学术质量提供有效的参考信息。大学的利益相关方对待大学排名也需要保持理性态度,不要过度解读大学排名中的相关信息。

第三,立足本土使命设定优先发展事项,引导大学排名的国际话语权。  

当前盎格鲁-撒克逊国家的高等教育理念成为全球高等教育发展的隐性规范,主流世界大学排名淡化甚至隐藏了这种文化偏向,将其作为理想型的模板影响了全球高等教育的发展逻辑。发展中高等教育系统中的大学如果盲目地“削足适履”,必将陷入代价高昂、风险巨大的同质化“学术军备竞赛”,从而牺牲了更为紧迫的优先发展事项,成为脱离本土使命的悬浮型大学。在这种形势下,我国的“双一流”建设一定要扎根中国大地,参与建设的大学要基于自身优势和特色,在服务国家和地区战略需求中追求卓越,不能将国际排名作为学校发展和学科建设目标。同时,学界及相关方要加强世界大学排名及其所依据数据库的元研究,积极参与构建类似于“柏林原则”的大学排名规范标准,为排名哲学和方法论贡献“中国方案”,构建符合我国高等教育发展诉求的世界大学排名话语权,促使全球高等教育的多元发展。


Copyright @ 2022 广东省高等教育学会 版权所有

办公地址:广东省广州市越秀区广卫路14号后座302

联系电话:020-33970796

粤ICP备2022028984号

扫一扫 关注
广东省高等教育学会
微信号:gdsgdjyxh