加入收藏 | 设为首页 | 会员中心 | 我要投稿 宁德站长网 (https://www.0593zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

超级人工智能可能控制整个世界,霍金马斯克“押中”?

发布时间:2021-09-04 16:12:52 所属栏目:大数据 来源:互联网
导读:近日,根据相关媒体报道,人工智能一直取得更大的进步,一些科学家和哲学家对不可控制的超级智能AI的危险发出了警告。 说起AI威胁论,不由想到霍金和马斯克。 此前,霍金曾表示,人工智能的崛起可能是人类文明的终结,霍金还呼吁人们必须建立有效机制尽早识
近日,根据相关媒体报道,人工智能一直取得更大的进步,一些科学家和哲学家对不可控制的超级智能AI的危险发出了警告。
说起AI威胁论,不由想到霍金和马斯克。
此前,霍金曾表示,人工智能的崛起可能是人类文明的终结,霍金还呼吁人们必须建立有效机制尽早识别威胁所在,防止人工智能对人类带来的威胁进一步上升。
      
除此之外,霍金还将人工智能的威胁分为两种,分别是短期和长期两种。短期威胁包括自动驾驶、智能性自主武器,以及隐私问题;长期担忧主要是人工智能系统失控带来的风险,如人工智能系统可能不听人类指挥。
值得一提的是,现如今霍金所提到了短期威胁基本已经“实现”,但是并不普及。
      
而关于马斯克,他曾表示,AI曾会在未来取代人类,这也是为什么他致力专注于脑机接口方面,其中,他认为利用某些连接到人类大脑的高带宽接口,有助于实现人类和机器智能的共生系统,并可以解决控制问题和实用问题。
而在外媒的报道中,国外研究团队曾用计算证明,控制超级智能AI很可能难以实现,不仅如此,甚至表示现如今一些机器能够完成某些重要的任务,但是程序员并不完全了解它们是怎么做到的。
      
在研究的过程中,研究团队还曾构思了一种论遏制算法,其主要的目的是为了模拟AI的行为被认为是有害的情况下,人们能够进行阻止,以保证伤害到人类。
但是结果并不理想,分析中显示,在目前的计算范式中,这种算法是无法建立的。
      
现如今社会的发展十分的迅速,AI的到来有利有弊,而无论是利大于弊或者是弊大于利,我们都要怀着正确的眼光去看待,而不能一昧的只是看到AI的某一点。
但是不可否认的是,当一项技术过于的成熟再者加上了主观意识,确实会按照什么样的事态发展是人们很难预料得到的。
最后,关于这件事情,你还有什么看法?

(编辑:宁德站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读