第1098章 思维逻辑不等于自我意识
九指键仙提示您:看后求收藏(第1098章 思维逻辑不等于自我意识,我老公明明很强却过于低调,九指键仙,海棠文学城),接着再看更方便。
请关闭浏览器的阅读/畅读/小说模式并且关闭广告屏蔽过滤功能,避免出现内容无法显示或者段落错乱。
“这几年,我先后用C100和C200制造出好几批样品机器人,并且一直在观察评估,确定没有任何问题,最终才在几个月前,把C300装进了雅薇的大脑。”</p>
“目前来看,我的担忧应该是多余的,即使有了C系列的智能芯片,机器人也只是在模拟人类,并没有产生脱离于程序设定的自主意识,所以还是能够掌控的。”</p>
“后来我仔细想了一下,思维逻辑并不等于自我意识,这是两个完全不同的概念,使用了C系列芯片的智能产品仅仅只拥有思维逻辑,并没有诞生出以自我为中心的独立意识。”</p>
“所谓的‘思维逻辑’其实也是由开发者事先构建好的,就好比已被发现的公式和定律,C系列的智能芯片只不过是在合理的使用这些东西,用已有的公式和定律进行复杂运算和各种推导,而它不可能创造出新的公式和新的定律。”</p>
“换而言之,除非程序出BUG,否则它会始终服从主人的命令,不会违背一些基础设定。”</p>
黎薇一本正经地说了一大堆,夜星宇逐字逐句地认真听完,途中想起自己曾对雅薇施展过赋灵神通,于是便不动声色地偷偷瞄了雅薇一眼。</p>
此时的雅薇还算正常,没看出什么古怪,但她以前有过几次夸张举动,比如学着侯晓扮鬼脸什么的,感觉不像是一个机器人能做的事。</p>
夜星宇不由怀疑:雅薇那家伙似乎有点不对劲,不会已经诞生出自我意识了吧?</p>
他按耐住疑虑,向黎薇问道:“如何判断一个机器人有没有自我意识?”</p>
“我刚才不是已经说了吗?你有没有认真听?”黎薇没好气地答道,“拥有自我意识的机器人会有自己的想法,无视三大定律的存在。”</p>
她口中的“三大定律”,由上个世纪的科幻小说作家阿西莫夫最先提出,具体如下:</p>
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不顾。</p>
第二定律:机器人必须服从人类给予它的命令,当该命令与第一定律冲突时例外。</p>
第三定律:机器人在不违反第一、第二定律的情况下,要尽可能保证自己的生存。</p>
但经过这么多年的认知发展,原本的机器人三大定律有了一些小小的改变,与最初的版本略为不同,最终归结为以下三点:</p>
第一,机器人不能伤害自己的主人。(非主人身份的其他人类不在此列)</p>
第二,机器人必须服从主人的命令。(只限于主人,且不能违反第一条)</p>
第三,机器人不但要保护好自己,更要保证主人的安全。(不能违反第一条和第二条)</p>
对比后可以得出结论,修改后的三大定律摈弃了道德因素,更偏向于实用观点,是把机器人视为私人物品,而不是全人类的公众财产,甚至可以把机器人当作一种战争武器来使用。</p>
如果还在沿用以前的三大定律,战斗类型的机器人将不可能出现,更没有存在的意义。</p>
试想一下,既然不能伤害人类,那么造出来的机器人拿去跟谁战斗?</p>
本章未完,点击下一页继续阅读。