全国免费电话:
Q1015831000

公司新闻

恒达平台是正规的吗_人工智能是否会带来扑灭?

在影戏《异形:左券》中,迈克尔・法斯宾德所饰演的仿生人大卫表面上对人类亲切友好,但实际上却通过一系列行为为人类带来灾祸。而在现实中,如霍金、马斯克、比尔.盖茨等名人都曾忠告过人们要小心人工智能可能带来的危害。对于“人工智能灭世论”的支持者而言,当人工智能生长到一定阶段后,它可能将人类看作潜在的、可被祛除的工具。正如一位著名的AI风险倡导者所说,“人工智能并不恨你,也并不爱你,但你是由原子组成的,它可以将其用于其他用途”(Yudkowsky,2008)。在这篇文章中,我将先先容人工智能灭世论的基本论证,然后提出两个质疑。需要说明的是,这样的质疑并非为了证实人工智能灭世论是通盘错误的,而是为了让该理论变得更为完整且合理,以带给人们更严肃的思索。

人工智能灭世论

对于人们而言,人工智能将会在智力层面上逾越人类已经不是隐秘。人们为人工智能解决某些庞大能力而啧啧称奇,然则人类仍然对人工智能在认知领域的希望既好奇又小心。这样的态度背后,是人类对于智力与知己之间不一致关系的熟悉,一个在智力上逾越人类的存在未必是善良的。正如Nick Bostrom 在他的著作《超级智能》中所说的,若是超级智能是仁慈的,那很好,然则没有理由让人们认定人工智能必定是善良的。我们完全可以想象,当人工智能以为有需要销毁人类赖以生计的资源时,人工智能会“毫不留情”地执行这一想法。Nick Bostrom示意,人工智能有能力决议日后的地球上的生命起源,当他们以为非人类式的生命将对地球最为有益时,可以预见人工智能将推动人类的灭绝。

对此,有些学者质疑到是否可以设计某些“仁慈性测试”来磨练人工智能的危害性。在人工智能通过测试之前,人们可以将人工智能放置在一个可控的、平安的环境(“盒子”)中,并频频测试其平安性。“盒子”自己需要尽可能的还原现实环境,以保障人工智能的仁慈性与平安性获得的测试足够真实。在人工智能通过测试后,而且对人类生命没有任何风险时,我们可以将其从“盒子”中释放出来。

然则,测试提议收到了许多指斥和质疑,Bostrom示意,我们可以嫌疑人工智能是否会为了逃离“盒子”而说谎通过测试。正犹如人类可以为了杀青自己的目的而使用例如说谎等不光彩的手段一样,人工智能也有能力通过冒充对人类友善来实行其灭绝人类的设计。甚至,在通过测试后的很长一段时间内,人工智能都可以与人类协调共处,以赢得人类的信任。另一种可能是,基于人工智能的高速生长与转变,犹如《异形:左券》中的仿生人大卫一样平常,它们可能基于现实转变而推翻之前对于人类的认知,将人类视作威胁。因此,通过仁慈性测试并不能保证人工智能未来的平安性。基于这些理由,我们有理由对人工智能灭世论报以足够的重视。

人工智能的威胁与休谟问题

Bostrom对于人工智能可能诱骗人类通过仁慈性测试的可能性似乎与休谟问题有着相同的逻辑。休谟指出,当我们通过归纳之前的履历而得出未来的结论时,我们就不得不面临归纳所带来的风险。举例而言,我们不能由于太阳升起过999次就认定太阳会在明天升起第1000次;同样的,欧洲人曾经认定天鹅只有白色,由于他们只见过白色的天鹅,然而,当玄色的天鹅泛起后,他们之前的推断就被证实为错误的。同理,Bostrom对于人工智能的道德性具有相同的嫌疑,纵然人工智能在人们的一样平常生涯中可以显得善良而可靠,我们仍然不应该忽视人工智能在未来成为人类威胁的可能性。这样的忠告使得人类在面临人工智能时不得不陷入一种两难,一方面,我们可以心安理得地去享受人工智能为我们提供的便捷服务;然则在另一方面,我们又不得不小心谨慎地去提防人工智能的“倒戈”。然则,正犹如休谟问题指出的,我们永远无法正确地指出明天的太阳是否会升起,我们也无法判断人工智能在未来事实会是善照样恶,这样的嫌疑指出了人们对于人工智能的轻信,却无法带来一个确定的结论。固然,我们也可以发现,人类的一样平常生涯中无时无刻都在面临这样的“不确定性”,没有人能够真正地展望未来事实会发生什么,就犹如我们不能清扫今天开车出门有发生车祸的可能性,然则我们不会因此不出门一样;纵然在明知人工智能可能带有风险之后,某些人群仍然愿意忍受这种风险,享受人工智能的便利。

忖度超级智能的不可能性

与休谟问题的归纳性差别,爱尔兰国立高威大学的John Danaher 教授对人类是否真的能够明白人工智能的所思所想示意嫌疑。我们可以意识到,大部分对于人工智能威胁的理论都建立在拟态逻辑上,人们幻想出一个可能的天下,并在其中推演人工智能倒戈人类的可能性。然则,这样的推演(如Bostrom所提出的假设),仅仅从人类视角,凭据人工智能的技术性与现实举行设想;值得嫌疑的是,这样的推测是否真正还原了人工智能的思索方式?而人工智能又在多大水平上会犹如推演中的那样去行动?英国学者Kevin Warwick曾示意,“我们无法真正明白超级智能为什么做出这样那样的决议。当一个机械以逾越我们纬度的方式举行思索时,我们又怎么可能去明白、推测它的想法,甚至和它举行讨价还价呢?”

如人类想象中的其他超级智能,例如天主,差别的是,人工智能或许是全知全能的,然则它的目的并非犹如全善的天主一样平常是去缔造并维持这个天下的有序运行。我们可以从考察自然天下中发现某些天下遵照的纪律,并推测天主设计了这些纪律。然则,我们没有理由去信赖人工智能也会遵守并维护这些纪律,而恰恰相反,人工智能拥有随时损坏并制订新划定的能力。也正由于如此,我们有理由嫌疑科学家是否应该中止开发人工智能,更恐怖的是,若是Bostrom的假设为真,那么我们并不能知道人工智能是否已经悄无声息地倒戈了人类。

固然,人工智能的拥护者会示意,这样的嫌疑忽略了人工智能带给人类的伟大便利,以及其带来的科技提高。至少在短期内看来,我们还看不到人工智能有明确倒戈人类的行为。然则,谁也不能保证人工智能在未来不会对人类的生涯带来危害。或许,人工智能现在为人类带来的辅助,相比较于其可能带来的危害是不值一提的。

结论

虽然我们可以对Bostrom的“人工智能灭世论”提出嫌疑,然则我们不应该忽略该理论的严肃性。已经有许多领域的专家指出,未来人类可能需要与机械配合生计,以延伸人类的生命。然则,与功效单一且明确的机械差别,人工智能加倍周全和多样,不可否认的是,人工智能将会为人类带来更多的利益。然则人类是否真的能够信赖在智力上远远跨越我们的人工智能,人类设计的仁慈性测试又似乎不能确保人工智能的善良;因此若何保证连续提高人工智能无法对人类的未来造成毁灭性的袭击,将是人类在很长一段时间内需要思索的问题。

参考文献:

Bostrom, N. (2014) Superintelligence: Paths, Dangers, Strategies. Oxford: OUP

Danaher, J. (2015). Why AI doomsayers are like sceptical theists and why it matters. Minds and Machines, 25(3), 231-246.

Yudkowsky, E. (2008) Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Bostrom, N and Cirkovic, M. (eds) (2008) Global Catastrophic Risks. Oxford: OUP

Copyright © 2014-2019 恒达总代理招商-恒达登录平台 版权所有   

地址: 电话:Q1015831000 传真:

手机:Q1015831000 联系人:恒达平台招商主管