笔趣阁 > 科幻小说 > 永不下车 > 正文 第五三四章 效率
    不论从哪一点出发,“强人工智能”,都必须尽早应用到实践中去。

    找到莱斯利*兰伯特,方然毫不掩饰的直接说出构想,对这一计划,兰伯特原则上认为“可以一试”,但并未给出任何确切的承诺。

    “是的,阿达民先生,用‘强人工智能’替代现有的ai,的确可以提升一些效率。

    这一点,不知您是否理解,即便通用型人工智能与强人工智能,都是基于现有信息技术水平的计算机加软件之体系,彼此之间,没有明显的技术差距,后者的处理效率也会大大优于前者,当然,能领先到什么程度,还说不准。”

    “是因为两者的软件架构,一个基于fscim,一个则基于‘自主思维’吗。”

    “正是如此,或者说,在算力消耗相同的情况下,‘强ai’比现有ai快得多,主要原因并不是前者的效率极高;

    而是基于fscim体系的传统人工智能,在解决实际问题时,效率太低。”

    莱斯利*兰伯特的说法,对熟悉fscim体系的方然而言,一听就懂,他早知道这体系的弊端。

    fscim,联邦标准信息测度码,诞生在旧时代的一套“计算机系统通用编码标准”,原则上是站在计算机、而非人类的立场上,描述客观世界,进而从这一体系出发,可以用传统ai的诸多算法,实现诸多功能。

    这一体系,早在诞生之初,就引起it业界的浓厚兴趣,但也有很多业内人士不以为然。

    反对者的一大武器,便是fscim体系的低效,这种低效,并不是体系架构本身多么拙劣,而是由于fscim的开发初衷:

    描绘计算机眼中的世界,进而,为计算机提供一种内禀的通用“语言”。

    这样的体系,显而易见,并无人类对客观世界的既有认识,以其为基础开发的程序,一般而言,也几乎无法借助人类已有的科学技术成果,去加快处理的速度。

    这是什么意思呢,譬如说,物流网络的运力规划问题,用ai解决的一般思路,是挂载深度学习网络,并根据问题的性质给定大量边界条件,ai上线运行后,很快就能根据初始条件与运行数据,逐步优化策略,给出较好的解决方案。

    旧时代的it领域中,人工智能,往往就是应用在这样的场合。

    这种“自动化、智能化”,实质上仍然是一种低级重复劳动的替代,是用人类智慧,分割、定义问题,给出算法,然后利用计算机的速度,迅速做完原本用人力需要很长时间才能完成的工作。

    但这种应用方式,显然,对复杂问题的解决能力,不会太理想。

    在若干年前,应用于某一领域、解决某一类问题的ai,几乎只能用于解决该类问题。

    不仅如此,一旦问题的边界条件发生变化,甚至只是略微改变,ai的效率都有可能大幅滑坡,进而必须有人来干预,修改边界条件,替换算法,总之,借助人类的智慧才能应对多变的具体情形。

    即便这些多变的情形,根本上讲,并未改变问题的性质,理应在计算机的能力范围内,传统ai体系也几乎总是一筹莫展。

    这种情形,在fscim体系出现后,才逐渐被改变。

    基于fscim体系的计算机、ai体系,一言蔽之,对问题的“理解程度”,远比之前那些全凭速度吃饭、对自己正在解决的问题本质一无所知的ai深得多。

    说计算机“理解”问题的本质,很多业界人士,只会一笑置之。

    这实际上反映出人类的傲慢,方然的观点则相对中立,他并不认为,一台运行fscim架构之软件的计算机,会如同人类那样认识、分析、理解问题。

    否则,fscim体系反而相当于失败,这一体系最初就是为计算机所准备,故,fscim体系赋予计算机的能力,是独特的新视角,区别于人根据自身思维特性而做的探索与认识,计算机同样也有自己的一套认识、分析问题之构架。

    不论这一架构,是否真的存在,当今时代的“全产机”、通用型ai,确乎可以应付一些以前并无法用ai独力完成的任务。

    灵活性与运行效率,这一对矛盾体现在ai架构上,基于fscim架构的人工智能效率相对较差,在解决具体问题时,所需算力会比传统的人工智能高出一个约数量级,换来的却是更强大的自主性。

    而“强人工智能”,解决问题的思路则不一样,更像是对人类思维过程的模仿。

    虽然这种模仿,并非如旧时代的ai方案那样,原版照抄人类大脑的运作过程,而是放手让计算机用“敛散算法”自行探索,一旦形成某问题的解决方案,效率,就可以接近传统ai的水平。

    相对基于fscim的通用型ai,采用强人工智能,显然可以极大的节约算力。

    想法很好,找到莱斯利*兰伯特说明来意,负责人的表情却有一点为难,兰伯特先告诉阿达民,目前“强人工智能三号机”的研发还算顺利,在近乎无限的资金、资源支持下,乐观的讲,“盘古”甚至有望在年底完成第一阶段测试。

    随后,他又向阿达民转告,nep_791等研发机构的数学家们,对“盘古”、“混沌”这些系统的看法:

    “站在工程技术的角度,应该说,‘强人工智能’目前的表现,出乎意料。

    但是数学家们,对这一系列新产物,还有些疑虑,毕竟与传统的人工智能不同,‘强ai’的内部运行状态,原则上也无法得知,这里面的确潜藏着一定的风险。”

    “风险,什么风险?

    担心人工智能有一天意识觉醒,人类自取灭亡吗。”

    “倒也没那么夸张,而是……”

    电影大片,是吗,莱斯利*兰伯特一开始想到的,也是那些花里胡哨、效果爆炸的旧时代科幻作品,但身为it领域的资深专家,他现在已基本认同了阿达民的观点。

    直白的讲,兰伯特也一致认为,“混沌”、“盘古”这些系统并不会反噬人类。