Stuart Russell 对 AI 的警告
斯图尔特罗素警告与创造人工智能相关的危险。 通用人工智能,或 AGI。
几十年来,人工智能有朝一日可能超越我们自身智力的想法既令人着迷又令人恐惧。 许多人想象如果能够制造一台认知能力与我们相当或更好的机器会是什么样子。 与大多数新技术一样,构建 AGI 并非没有问题。 如果我们成功了怎么办? 如果我们对人工智能的追求成功了,会发生什么? 我们如何才能保持对比我们聪明的智能实体的控制? 当然,谁也说不准。 然而,我们可以从智力研究中得出一些合乎逻辑的结论。

Stuart Russell 是加州大学伯克利分校的计算机科学教授。 他担任 Smith-Zadeh 工程学主席,并领导人类兼容人工智能中心。 他讨论了人工智能的定义及其给未来带来的好处和风险。 根据他的说法,AGI 的概念是一个主要的智力问题。

AGI 可以用在好的方面和坏的方面。 创建 AGI 有很多好处。 但是,也有一些缺点。 如果我们在了解 AGI 对人类和世界上其他生物构成的风险之前部署和创建 AGI,我们可能会造成巨大的灾难。

Russel 建议我们专注于创造一台机器,它可以了解 80 亿人希望他们的未来是什么样子。

#AI #AGI #science。

订阅我们的频道“科学时间”:https://www.youtube.com/sciencetime24

来源和详细信息:

By lausm

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *