白鲸出海—让中国互联网服务世界
{{user_info.user_name}}
您当前是白鲸会员
开通VIP,享受更多服务
会员到期时间:{{user_info.expire_date*1000 | formatDatebyDay}}
合作查看次数: {{users_vip_equities.view_cooperation || 0}}次
合作发布次数: {{users_vip_equities.release_cooperation || 0}}次
公司查看次数: {{users_vip_equities.view_company || 0}}次
榜单下载次数: {{users_vip_equities.download_rank || 0}}次
报告下载次数: {{users_vip_equities.download_book || 0}}次
鲸币数量:{{user_info.jingbi}}
发布
当前位置:白鲸出海 > 资讯 > 正文

OpenAI:超智能AI或在这个十年出现,将加大资源应对

江清月近人  • 

原标题:OpenAI:超智能AI或在这个十年出现,将加大资源应对

在2.jpg

题图来源 | pexels

新浪科技讯,北京时间 7 月 6 日早间消息,当地时间周三,ChatGPT 的开发者 OpenAI 表示计划投入更多资源并成立新的研究团队,研究如何确保 AI 对人类的安全性,最终实现用 AI 来监督 AI。

OpenAI 联合创始人伊利亚·苏茨凯弗(Ilya Sutskever)和 AI 对齐负责人简·莱克(Jan Leike)在官方博客中表示:“超级智能的巨大能力可能导致人类失去力量甚至灭绝。目前,我们还没有解决方案来操纵或控制一个可能的超智能 AI,并防止其变成无赖。”

这篇博文预测,超智能 AI,即相比于人类更智能的系统,可能会在未来 10 年中出现。人类需要比目前更强大的技术来控制超智能 AI,因此需要在“AI 对齐研究”方面取得突破,确保人 AI 对人类持续有益。AI 对齐是 AI 控制中的主要问题,即要求 AI 的目标和人类的价值观与意图保持一致。

作者写道,OpenAI 将在未来 4 年内,将算力的 20% 专门用于解决这方面问题。此外,该公司将组建新的“超对齐”团队来组织这方面的工作。

该团队的目标是开发达到“人类水平”,由 AI 驱动的对齐研究员,随后通过庞大的算力推动其发展。OpenAI 表示,这意味着将使用人工反馈来训练 AI 系统,通过训练 AI 系统来协助人工评估,最终训练 AI 系统来进行实际的对齐研究。

不过,人工智能安全的倡导者康纳·莱希(Connor Leahy)表示,OpenAI 的计划存在根本性缺陷,因为最初的人类水平 AI 可能会失控并造成严重破坏,而这将迫使研究者去解决 AI 安全问题。他在接受对话时表示:“在构建人类水平的智能之前,必须先解决对齐问题,否则默认情况下你无法控制它。我个人认为这不是个特别好的、安全的计划。”

AI 的潜在危险一直是 AI 研究员和公众最关心的问题。今年 4 月,一群 AI 行业领袖和专家签署公开信,呼吁暂停 6 个月开发比 OpenAI 的 GPT-4 更强大的系统,原因是对社会存在潜在风险。益普索今年 5 月的调查发现,超过 2/3 的美国人担心 AI 可能产生的负面影响,61% 的人认为 AI 可能威胁人类文明。


文章信息来自于新浪科技 ,不代表白鲸出海官方立场,内容仅供网友参考学习。对于因本网站内容所引起的纠纷、损失等,白鲸出海均不承担侵权行为的连带责任。如若转载请联系原出处

友情提醒:白鲸出海目前仅有微信群与QQ群,并无在Telegram等其他社交软件创建群,请白鲸的广大用户、合作伙伴警惕他人冒充我们,向您索要费用、骗取钱财!


分享文章

扫一扫 在手机阅读、分享本文

4759
{{votes}}
分享文章

扫一扫 在手机阅读、分享本文

4759
{{votes}}

要回复文章请先登录注册

与CEO聊合作

(备注姓名、公司及职位)