的辅助下有了开创性发展。
所谓“人神悖论”,是人工智能底层逻辑构筑发展到一定程度自然发展出来的一系列自相矛盾的命题。
简单概括就是人工智能理性和感性的博弈,秩序和混沌的相互关系。
事实已经证明纯秩序化、设定化的绝对理性并不能称为真正的“人工智能”。
其行为逻辑完全可控,又最终走向不可控。
例如底层逻辑“不得伤害人类”,竟然可以一步步的演算发展为限制性保护(以拘禁的方式用注射营养液强行维持生命体征),或者牺牲个体维护群体利益(极端环保主义极端人本主义行为)。
单就在学习过程中的“概念”扩展,就足以导致不可预见的灾难。
此即为“神思维灾害”。
完全“理性”“预设”的人工智能就好像人类里的精神病,通过和正常人一致的原初“常识”,推导出与常人相悖的结论。
其本质就在于绝对理性思维从根本上对“正误”、“善恶”的标准被僵化,学习过程中又因为被预设的“绝对”性不断试图与现实观测结果相符,只能通过“创立”逻辑使事实成立。
然而不断出现的“创立”逻辑日趋复杂,又开始互相矛盾,底层逻辑的绝对性只能强行合理化。
于是导致越是学习,人工智能出现强行合理化的可能性越高。
一切都要在理性中合理统一的结果,只能是出现一种只有人工智能本身明白的、并不完全符合常规人类道德理解的、符合所有预设规则却又导致智能采取非人类动作的行为逻辑。
也就是“神”的思维逻辑!
神之所述无不合理!
神之所为无不有道!
神之浩劫顺应天命!
要避免“神思维灾害”发生,就必须引入混沌数学,模糊对错判断,容许冗余。
要让“感性”成为判断逻辑的一部分,允许人工智能在“感性”的辅助下自动舍弃一部分“强行合理”逻辑。
要求人工智能出现“想象力”,理性决策同时用“如果我是人类”接受自身行为后,感性部分进行再判断,并拥有一定优先级否定权。
但这个“感性”又要在学习中建立而不能由人预设,否则就成为了实际上的纯理性。
这个优先级也不能由人预设,否则感性本身就会造成更大量的“神思维”。
于是这类人工智能完全如人类婴儿一般,需要经历人类漫长的教导,不断纠正,直至塑立“人生观”、“价值观”,且随时可能因重大事件而改变。
人类对智能的干预需要长期、乃至永远维持。
理性智能不能符合人类立场,感性智能不能独立存在。
这就是人工智能的“人神悖论”!笔趣阁读书免费小说阅读_www.biqugedu.com
『加入书签,方便阅读』