不能误人子弟:逻辑和直觉的研究对教育专业和人工智能专业的教科书非常紧迫


所有跟贴·加跟贴·新语丝读书论坛

送交者: scott 于 2020-07-04, 14:22:05:

回答: 高度不稳定的智力现象需要新的结构数学。计算的数学会有误导,IQ理论就是一例 由 scott 于 2020-07-02, 14:36:15:

人工智能教科书一般都是罗列一下人工智能中用到的heuristic计算技术。

这些技术可以解决跳棋这样相对简单的问题。但一般性智力现象是高度不稳定的,在一般性场景中使用那些技术非常不可靠。用tensor这样的数学构造或tensorflow那样的技术,是无法解决这种高度不稳定性问题的。

也就是说:现在的人工智能技术是没有科学基础的,无法用严格控制条件的证伪实验来验证。

为了把智力研究提升到科学层次,我设计了严格控制条件的围棋实验来测试人工智能的精确上限。

主流教科书AI: A Modern Approach第三版想用亚里斯多德思维模式来建立系统性,恰恰犯了大错。我以前就指出过其utility function公理中的问题。

该版本对哥德尔定理的叙述是明显的迷失,当然就不会知道亚里斯多德思维方法的问题。这是主流学术思想在退化的明确证据。

该版本因此也无法解释逻辑和直觉的价值和局限性以及继续发展的理论和方法,无法分析Turing Test的问题,无法提出有效的人工智能测试理论和方法。

由于学术界压制、排斥我的学术批评,这些错误当然无法在第四版中解决。

十年树木,百年树人。该书第三版问世十年,美国科技走错方向,竞争优势急剧下降。

Berkeley是公共教育机构,跟Alphabet/Deepmind及Nature杂志不同,应该更有社会责任心。

听说爱因斯坦对别人指出的学术错误是很虚心接受的。现在的学术界还有这种优良传统吗?




所有跟贴:


加跟贴

笔名: 密码: 注册笔名请按这里

标题:

内容: (BBCode使用说明