第65章 永生的代价(17更,为cn-54缺失大佬加更)
成神提示您:看后求收藏(第65章 永生的代价(17更,为cn-54缺失大佬加更),直播:开局证明无限多元宇宙,成神,海棠书屋),接着再看更方便。
请关闭浏览器的阅读/畅读/小说模式并且关闭广告屏蔽过滤功能,避免出现内容无法显示或者段落错乱。
看着江哲敲白板的刹那。
台下一些专家忍不住心脏悸动。
成神是显然不可能的,因为人类注定不团结。
更可能的是灭绝!
从江哲给出的答案来看,这一切不能怪江哲,而是怪于人工智能的智慧。
一旦人工智能的智慧高于人类。
那么届时将成为人工智能的天下。
作为武器工程师的安阳,忽然提问:“如果真这样下去的话,我们在2024年大概率会是灭亡,如果是这样,我们是否能阻止‘奇异点’的爆发?”
这话一出,其余专家纷纷点头。
“对!跟国家说一下,晚点制造量子计算机。”
“造太快,没好处。”
“我同意!”
“”
听到这话,江哲微微摇头:
“无法办到!”
“不管量子计算机是否出现,他依旧不能阻止技术发展。”
哪怕量子计算机不出现。
依旧会有别的高科技出现,科技的发展不会随着限制某个东西的而停止发展。
就像江哲的前世——
漂亮国联合其它国家阻止夏国加入国际空间,试图限制夏国的科技发展。
之后夏国的大神们最终在无外力的帮助下,成功独立完成了夏国空间站。
甚至制造出的空间站比漂亮国还要强数十倍!
越打压,越限制,科技将会爆发越快!
灭亡,永生,来到的速度也会更快!
专家们在反思,随后才联想到了夏国空间站。
确实如此。
一旦技术被打压,那么被打压的国家,技术将进入高速通道。
科技,就是如此神奇!
这时有专家问了:“如果面对智慧人工智能,难道我们只能袖手旁观?”
面对问题,江哲解释着:“当然不能袖手旁观。”
“我们需要给人工智能,进行决定性的限制。”
“我之前在节目中就提到过‘造物主三原则’,它也可以适用于人工智能。”
“一:人工智能不得伤害人类,或看到人类受到伤害而袖手旁观。”
“二:人工智能必须服从人类的命令,除非这条命令与第一条相矛盾。”
“三”
这三句话的出现。
令台下的计算机学家眼前一亮。
“造物主三原则,很新颖啊!”
他们之前可没看过江哲之前的节目。
而这个原则的出现,正好避免了被人工智能灭亡的问题。
“原来如此!一旦设定了三原则,那人工智能哪怕比我们聪明,它们也不得伤害我们。”
其余专家纷纷点头。
有小部分专家当场对江哲竖起大拇指。
面对众人,江哲缓缓解释道:“是的,一旦它们伤害我们,首先会是它们被销毁。”
“既然人工智能在未来会全心全意的为人类服务。”
“届时,我们人类的目标又是什么呢?”
台下专家纷纷思考。
本章未完,点击下一页继续阅读。