第一二〇章 分析(2/3)

作品:《永不下车

也只能徒唤奈何。

想一想也是,倘若这系统正在做的事,居然能被人通过接口数据分析的清楚明白,那他又要这何用呢,干脆自己操纵还更保险。

开发软件,部署人工智能系统,作为的创造者、至少也是参与了工作的使用者,却无从掌握人工智能体系的具体运作,基于过往的积累,在与打交道的过程中,方然对这类系统的黑盒子性质有了更直观、更深刻的理解,也部分理解了为什么一部分计算机、人工智能研究者,始终对心怀恐惧。

人创造出来的东西,却未必能被人控制,人工智能,原则上是存在这样的可能。

开发人工智能的直接动机,很显然,倘若不是出于莫须有的“研究意识”、甚至“百无聊赖”之类理由,显然是为了解放人的辛劳,是为了利用人工智能去解决人类难以解决、甚至无法解决的问题,那么从逻辑上讲,对复杂度越过某种门槛的,运作过程必定不是人能够完全解析的。

这种不能够,并非理论上的做不到,而是解析的时间会长到脱离实际,根本就不现实。

想到这,方然不是在杞人忧天,认为人类创造的会脱离控制、自作主张,而是说作为人工智能的使用者,对正在做什么,并没办法有很切实的把握。

这对系统开发者来说并不成问题,但是对使用者,则潜藏着这样的风险:

对的实际行为,不管开发者怎样声称、怎样保证,都没办法验证这些声称、保证究竟是真的靠谱,还是完全的欺骗。

归而总之,还是此前想到的那一个难题:

除非开发者主动放弃,否则,对复杂度超限的系统,没有任何百分之百可靠的手段,可以确保除开发者之外的任何人将其完全掌控。

思考着的行为,“权限不可转让”的猜想,再度浮现于方然的脑海。

但他想了又想,还是无法给出证明。

幸好现在还无关紧要,至少对,身为开发者的自己并不担心它会失控,方然就暂且将猜想放到一边,他仔细观察“自动化搜索与分析”系统的日志,结合每天的分析报告,逐渐洞悉了这系统的运行规律。

看起来,正仿佛一个物理意义上的大脑,的运行思路,恰似人脑。

这种相似性,与“自我意识”的讨论无关,而是说眼前的人工智能在处理问题时,采取的广泛尝试、不断反馈的策略,与人脑在面对问题时的工作方式很相似。

想象一个人,在尝试解决试卷上的数学题时,究竟是怎样
本章未完,请翻下一页继续阅读......... 永不下车 最新章节第一二〇章 分析,网址:https://www.88gp.org/0/167/127.html