努努书坊

繁体版 简体版
努努书坊 > 穿越:2014 > 第90章 顶尖算法团队的赞叹

第90章 顶尖算法团队的赞叹(6 / 9)

、duc、tac(textanalysisconference)等。

尽管相关的团队在积极研究自动评价方法,在现今评估自动文本摘要质量的两种方法(人工评价方法和自动评价方法)还是以人工评价方法这个评估方法最为常用。

很多自动评价方法的原理主要是将摘要算法生成的新闻摘要和参考摘要进行比较通过最大拟合程度来进行评价。

这个评价的过程虽然是自动的,但参考摘要却是人工撰写的。

也就是说即便是所谓的自动评价方法,也摆脱不了主观因素的介入。

那样的话何苦多费一遍功夫用什么自动评价方法?

也正因为如此很多团队在评估摘要质量时选择的方式依旧是人工评估。

而人工评估这种主观东西就很难对结果进行客观的量化。

正因为这种情况,尽管之前不少团队摘要算法准确度都还算不错。

但涉及到新闻摘要准确度方面的宣传,大家都选择性的遗忘了。

就这种情况下,为什么南风app的开发者在软件介绍中却言之凿凿地称这款软件准确度比同类软件高出270%。

这个所谓的270%究竟是基于什么标准去衡量的呢?一时之间伊芙·卡莉陷入了沉思。

无论这个270%是怎么得出来的,想来应该不是无中生有。

在别的国家的软件宣传是什么规矩伊芙不清楚,但是在米国如果没有一个逻辑自洽的衡量模型作为理论支撑就贸然进行这种无中生有的量化宣传的话,很容易被罚的底裤都不剩。

即南风app这个所谓的“270%”大概率是建立在足够强大并且能够逻辑自洽的准确度衡量模型的基础之上的。

不过也不好说,每年为了博眼球而不顾宣传规矩的开发者比比皆是。

出于严谨的科研态度,伊芙·卡莉以【文本摘要准确度衡量模型】为关键词进行了检索。

『加入书签,方便阅读』