邹 进
(人天书店集团 北京100165)
本来我没有资格为这部专著作序,我是地道的业外人士。去年大概这个时候,人天书店在苏州召开江苏、上海、浙江三地高校图书馆馆长资源建设研讨会,请吴志荣老师做主题演讲。私下,吴老师跟我说到这本书的内容,正好我们正在搭建人天数据平台,很多想法有相通之处。意气相投嘛,我就跟吴老师说,书写好了我给你出吧。
我的数据平台原理,是要把采访、编目、联合编目、联合目录都放在一个数据库里,而现在的情况并非如此,采访是采访,编目是编目,编目还要分为国图和CALIS两个标准,实际又变成了两个库,联合目录已经没人做了,个别专业图书馆只做自己专业的联合目录。编制不方便,使用更不方便。书出版了,编目就重做一遍,并不在采访的基础上做,编目员嫌麻烦。使用采访数据时,并不知道哪些书已经出版了,本来可以使用更准确的信息。每个库都是独立不相通的,是一个个信息孤岛,耗费大量的人工,还出现大量的冗余数据。我的数据平台把这些问题都解决了,采和编都在一个平台实现,从在版编目(CIP)到采访,到编目,到联合目录,一条数据像在一条流水线一样生产。好处还在于,一种书或一种书的信息在任何状态下,都可以放到这个制作流程中完成,比如某一种书没有任何信息,就直接编制它的编目数据,同时也就复制了它的采访数据,没有一个浪费的动作。
但是,数据平台做到这里,只是解决了馆配商采和编的问题,并没有解决图书馆采选的问题,就如同中图法和机读目录只解决了图书馆的问题,并没有解决读者的问题一样。读者要用最便捷的方式找到自己想看的书,他们会觉得百度、淘宝、当当、亚马逊更方便。图书馆是想最方便、最准确地找到符合自己馆藏要求的书,现在看来还没有任何手段可以达到这个目的。
这是一个服务的概念,馆配商可以不做,人天书店也可以不做,但如果做了,就会变得优秀。吴老师和他的团队所做的工作给了我一些启发。他们所做的工作,是把以往某个时段的书目集中起来,再把哲社类学术图书分离出来,对这部分图书用引文分析和二八定律遴选,再经相关专家审定,形成核心书目。这个书目可以作为馆藏质量测评的工具。在这之前,吴老师曾对某段时间的计算机类图书做过类似分析测评,由此生发出对所有图书进行评价的欲望。不管图书馆认可与否,是否会用这个工具测评本馆的馆藏图书质量,吴老师他们的工作都是有意义的。
对人天书店来说,这样的成果来得有点晚了。我是想让图书馆的采访人员在没有看到书的情况下,面对采访数据,就能大致判断出哪些是好书,有哪些图书符合自己的馆藏要求,不至于在若干年后,等吴老师的核心书目出来,与自己的馆藏一对比,覆盖率达不到50%,甚至达不到30%(吴老师用计算机类核心书目比对一些大学图书馆馆藏时,就发生了这样的情况)。
我们相信图书馆采访人员大都是敬业的,但不能要求他们是全才。特别是他们要面对每年17万种新书的时候,如果加上再版和重印的数量,那就是37万种了。所以要有一个推选的工具,把好书、符合馆藏要求的书自动推送到采访人员眼前。我希望在人天书店的数据平台上实现这一要求。如果能把吴老师的一些研究方式,用到对采访数据的评价上,是否能达到这个目的呢?还不得而知。这个工作肯定比评价已经出版的书有更大的难度,但不是不能做,不是无迹可寻。我提出“好书因子”的概念,吴老师同意我的说法。道理是相同的,方法是相通的。已经出版的书可以用引文分析的方法,被看得多、被引得多的大致会是好书,但也不尽然,有些书涉及热点问题或热点作者,被看被引自然多,但未必是好书,这里有个二次定量的问题。没有出版的书自然用不上引文分析,但一条采访数据里面也会包含很多信息,从这些信息里可以提取出用于评价的因子,再对其进行量化。殊途同归吧。我希望吴老师的书尽快出版,让我从中找到答案,同时也希望吴老师和他的团队,能加入到人天书店这项宏大工程中来。