◇◇新语丝(www.xys.org)(xys7.dxiong.com)(xys.ebookdiy.com)(xys2.dropin.org)◇◇ 对吴建鑫《对《南京大学教育部长江学者特聘教授周志华等人为学术剽窃道歉》的澄清》的置疑   作者: 诚恳   一个以教学和科研为己任的大学教授应该没有什么比维护自己的学术诚信更 重要的事情的。 况且,诚恳地回应对自己的学术成果的置疑是一个学者责无旁 贷的义务。对于言之有物的学术批评, 不承担应尽的义务而以所谓的"清者自清" 或"实名举报“推拖,如果不是心虚,那是很奇怪的。   “实名举报”是用来对付滥讼的,你们被滥讼了或有被滥讼的危险了吗?如 果没有, 你抄起它来作甚?没名没姓的人指出的问题就不是问题了吗?   好了,回过头来看看吴建鑫教授等人对自己的道歉信的澄清。   道歉有诚恳和不诚恳的区别。周志华、吴建鑫等人的道歉不仅不诚恳,还耍 了大家一把。不但耍了大家一把,自己还拿着放大镜给大家讲解他们是怎么耍了 大家一把的。这是跌破了我的眼镜的。我以为他们这回真要饯行所谓的“清者自 清了"呢。   首先,在[1]里(见论文摘要), 他们声称[1]有两点贡献, 一个是通过分析 推理,他们得到了从神经网络集中选择一个用于集成的子集的准则; 另一个是 用所谓的遗传算法去实现这个准则。   这第二个贡献是明显非常非常次要的,只是一个实验,是一个本科生毕业设 计的水准。光靠第二点贡献, 不要谈AIJ,连IJCAI那篇也不会有。   恰恰第一点贡献是非常重要的, 而且也是他们在[1][2]所重点强调的贡献。 不但如此, 在所谓有很多集成界大牛参加的集成学习领域的主要学术会议MCS ‘09上发表的[4]中, 周志华等人骄傲地(但也很无耻地)如下写到:   Zhou et al. [24] analyzed the relationship between ensemble and its component learners from the context of both regression and classification, and proved that it may be better to combine many instead of all of the learners.   请注意“prove”那个字。很明显,对于这个贡献, 他们不但知道有多重要, 而且也沾沾自喜于它: 象一个宝贝,不时拿出来,在众人面前舔舔它那可爱的 融毛。但这个宝贝不是亲生。   这和他们后来剽窃被揭后的态度形成了鲜明的对比。从周志华到吴建鑫的回 应都试图淡化第一点贡献而强调所谓的第二点贡献。在道歉信[5]里, 这第二点 贡献竟成为他们那篇论文的所有贡献。   一改以前对第一点贡献的推崇,在被揭后,他们声称第一点贡献是常识简单 堆积出来的,无多少新意云云。但那是[3]的所有。   让人匪夷所思的是,一个大学教授如吴建鑫,在这次回应中竟分析出一个 "k"理论来以说明他们的第一点贡献和[3]的不同:他们的“k”不是[3]里的“N” (实际上是"new")。因此一个是顺序集一个是选择集。这其实只是对公式的不 同解释而已。对公式的不同的实现当然会得到不同的效果: 用你们的遗传算法 实现当然是选择集成。但怎么得到这个公式才是最重要的:而[1][2]恰恰用了和 [3]同样的思路得到了同样的公式。这在3年前周志华的回应中是没有的,在一年 前的道歉信中也是没有的。如果这个说法成立的话,他们道了个错歉。   再谈谈他们道歉的不诚恳。诚恳的道歉是应该贴在自己的网址上的。按他们 的说法,为防别人继续以为那是他们的原创而"勘误“,那为什么不大大方方贴在 自己的主页上?不但应贴在自己的主页上,还应该把他附加在原文后, 让每个在 他们那下载原文的知道他们“漏引”了。另一个不诚恳是道歉不彻底,在道歉信 中说自己的主要贡献是原创的。那是你们原来声称的主要贡献吗?这个原创的主 要贡献还有那么重要吗?怕读者没被误导,竟跳出来用放大镜指引解读。你们是 不是早就等着这一天了? 我等就这么傻啊?!   [1] Zhi-Hua Zhou,Jian-Xin Wu,Wei Tang,Ensembling neural networks: Many could be better than all,Artificial Intelligence 137 (1–2) (May 2002) 239–263.   [2] Zhi-Hua Zhou,Jian-Xin Wu,Yuan Jiang,Shi-Fu Chen,Genetic algorithm based selective neural network ensemble,in: Proceedings of 17th International Joint Conference on Artificial Intelligence,vol.2,2001, pp.797–802.   [3] M.P.Perrone,L.N.Cooper,When networks disagree: Ensemble method for neural networks,in: R.J.Mammone (Ed.),Artificial Neural Networks for Speech and Vision,Chapman & Hall,New York,1993,pp.126–142.   [4] N. Li, Z-H Zhou.Selective Ensemble Under Regularization Framework. MCS'09, LNCS 5519, 293-303   [5]Corrigendum to “Ensembling neural networks: Many could be better than all” [Artificial Intelligence 137 (1–2) (2002) 239–263] (XYS20130203) ◇◇新语丝(www.xys.org)(xys7.dxiong.com)(xys.ebookdiy.com)(xys2.dropin.org)◇◇