◇◇新语丝(www.xys.org)(xys4.dxiong.com)(www.xysforum.org)(xys2.dropin.org)◇◇   周志华教授的第五篇孪生论文揭穿了一切   作者:铁证   首先,我发现了《模式识别与人工智能》上2001年的一篇老文章,见[3], 居然是周教授一稿四发的另外一个孪生兄弟。这篇文章与前面打假者提出的中文 版[1]的唯一区别是在实验中多了2个数据集,与IJCAI01一样均为4个数据集,实 验结果完全相同。有趣的是作者顺序又有变化(吴、陈、周)。先不谈周教授的 剽窃,这种一稿五发[1-5]可能要创学术界的记录了。就算在2001年,按周说中 英两发是“很自然”的,但中文英文均分别一稿两发也未免太离谱了,真是饥不 择食了...   这篇文章网上只能查到摘要,只有万方等数据库中有全文(全文的PDF已作 为附件发给方先生,希望能在[3]处提供链接)。看完这篇文章,感觉就好像周 教授自己承认了剽窃一样,为什么这样说,看看下面这几个自相矛盾就知道了。   周教授自相矛盾之一:   文[3]的投稿日期在2001年3月,周在2001年1月的IJCAI01英文版中摘要、结 论中均声称自己的理论分析证明了manybetter than all(后面简称many-all), 如果说1年前投第一篇中文[1]时没有意识到这个贡献,在投了IJCAI01后仅仅1个 多月,同样的中文文章[3]投往中文杂志,却在摘要、结论中没有这项贡献,这 岂不是自相矛盾?除了这个自相矛盾,还顺便请教一个小问题:如果2000年周投 [1]时还未意识到成果的价值,投IJCAI01总该意识到了吧?为什么一个月后又投 了个国内的二流刊物(比《计算机研究与发展》的档次还低)?(而且自己居然 变成了三作,过家家啊...)   周教授自相矛盾之二:   周在回复中说:“我们在文章页面比较宽松的时候会提一下Perrone和 Cooper的这个早期工作,而IJCAI限制很少的篇幅(最多6页),就没有提起。” 但文[1]5页多,引文12篇;文[3]5页,引文19篇,而IJCAI文6页,引文20篇,为 什么在这3篇中恰恰是文章页面紧张时引用了P&C文[6],而比较宽松的时候却没 有引用P&C文?这岂不是与周的说法自相矛盾?另外再请教一事:3篇文章中档次 最高的IJCAI01不引用,国内准一流刊物《计算机研究与发展》正文中引用1次, 二流刊物《模式识别与人工智能》正文中引用2次,难道你的原则是引用次数和 所投刊物(会议)的档次成反比?请周教授赐教。   周教授自相矛盾之三:   这是最关键的一点,周教授在文[3]中对前面公式4的表述和最早中文版[1] 一样,是说“公式4与Perrone等人的结果一致”。但是,在文[3]中的公式11前 却写到“若记C=...,则Perrone等人得到计算Wopt的公式11”,这里的公式11即 是IJCAI01的公式24,这个表述更直接地表明周在[3]中承认是Perrone等人得到 该式,自己对此没有贡献。但一个月前投IJCAI01却在此处说“we get: (24)”, 并直接取消参考文献的P&C文,这两种说法的自相矛盾也太夸张了吧?顺便请教: 如果自己算法推导中的一个关键公式是Perrone等人得到,还能说P&C文与自己的 工作不太相关?   从上面的三个自相矛盾,我想说的是:   1、周有意在IJCAI01省略对P&C文的引用,并将P&C的贡献窃为己有(见其摘 要、结论的表述)可以说铁证如山。   2、如果说8年前周还年轻,学术上不够检点,可以辩解“一个工作,写了一 个中文版一个英文版([文2]、[4]),这在当时很普遍...”,但目前已经贵为杰 青、长江,却在自己的回复中不提中文版还有一篇,企图故意隐瞒该文,做人的 诚信何在?   3、既然主要是周教授的工作,为什么中文版两篇都是吴作为一作,再苛刻 的老板也至少让你挂一篇的一作吧?   4、2001年中文版一稿两发普遍吗?你当时认为也是对的吗?你是否又认为 这两个中文刊物之间会自己协调?   5、如果我哪天把公式17-20改个形式,说自己首次证明了“part could be better than whole", 投到《软件学报》,周编委能否高抬贵手,让我过关? [1] 吴建鑫,周志华,沈学华,陈兆乾,一种选择性神经网络集成构造方法,计 算机研究与发展,2000年,第9期,1039-1044 [2] Z-H Zhou, J-X Wu, Y. Jiang and S-F Chen, Genetic Algorithm based Selective Neural Network Ensemble, IJCAI’01, pp. 797-802 [3]、吴建鑫,陈兆乾,周志华,基于最优权值的选择性神经网络集成方法, 《模式识别与人工智能》,2001,14(4). [4] Z-H Zhou, J-X Wu, and W. Tang. Ensembling Neural Networks: Many could be Better than All, AIJ 2002, 137(1-2):239-263. [5] Z-H Zhou, J-X Wu, W. Tang, Z-Q Chen, Combing regression estimators: GA-based selectively neural network ensemble. International Journal of Computational Intelligence and Applications, 2001, 1(4): 341-356. [6] M. P. Perrone, L. N. Cooper. When Networks disagree: ensemble method for neural networks. Artificial Neural Networks for Speech and Vision, 1993, 126-142. (XYS20091108) ◇◇新语丝(www.xys.org)(xys4.dxiong.com)(www.xysforum.org)(xys2.dropin.org)◇◇