Summary:Nash Embedding Theorems有局限性,无法作为逻辑临界点分析的数学基础,所以


所有跟贴·加跟贴·新语丝读书论坛

送交者: scott 于 2021-07-01, 17:25:40:

所以,计算机语言处理中的Word-embedding Vector Space无法处理对科学和文明兴衰关系重大的逻辑和诡辩问题。语言处理和人工智能研究需要新的数学理论和方法。

由于缺乏对语言智力的系统、结构研究,现有测试计算机语言处理的数据集无法测试重要的逻辑和诡辩问题以及其它很多重要问题,大大高估了人工智能的智力水准。

跟数学不同,科学基于实验。没有实验资源,像陈景润或张益唐那样做研究,是没法研究Word-embedding Vector Space和Nash Embedding Theorems的局限性。

Leukotomy的诺贝尔奖错误七十年无法纠正,证明了Turing Test和peer review都不可靠,不能依赖人的主观判断。也说明Selfish Gene能实现公益的理论错误。

在智力新科学有待探索的领域里,由于利益、知识或其它原因,即使是学术精英的主观判断也不可靠。学术精英不是智力研究的专家、权威,也不是peer,跟其他人一样无知,甚至还有偏见。

Leukotomy和Turing Test给智力科学实验和人工智能测试定下了错误的实验和测试标准以及错误的奖赏和资源分配标准。现在脑和智力研究方面的正确观点反而得不到研究资源。

文明衰退是迟早的事情。智力新科学可以带来更高境界的理性,至少可以推迟文明衰退的来临。不过,没有研究资源,根本无法继续研究。




所有跟贴:


加跟贴

笔名: 密码: 注册笔名请按这里

标题:

内容: (BBCode使用说明