生成式 AI 应用 ChatGPT 创建者 OpenAI 5 日表示,计划投入大量资源,建立新研究团队,以确保 AI 安全,最终用 AI 监督自己。
路透社报导,OpenAI 联合创办人 Ilya Sutskever 和联合负责人 Jan Leike 撰文,超级 AI 的巨大力量可能导致人类丧失权力,甚至导致人类灭绝。我们还没有解决方案引导或控制潜在超级 AI,并防止其失控。
作者还预测,超级 AI 将比人类更智慧,10 年内就会出现。人类需要比现阶段更全面的技术,以控制超级 AI,需在所谓一致性研究取得突破,以确保 AI 对人类有益。
报导引用文章,微软与 OpenAI 四年内投入 20% 运算力解决问题,也组织 Superalignment 新团队,目标是创建类人 AI,然後透过大量运算力扩展。OpenAI 表示,将使用人类反应训练 AI 系统,辅助人类评估,最後训练 AI 实际平行研究。
AI 安全倡导者 Connor Leahy 表示,此计画有根本性缺陷,因最初具人类水准的 AI 被迫解决 AI 安全问题前,可能会失控并造成严重破坏。构建人类水准的 AI 前,必须解决一致性问题,否则预设将无法控制 AI。他个人认为不是很好或安全的计画。
AI 潜在危险性一直是 AI 研究人员和大众最关心的问题。4 月 AI 产业领袖和专家联署呼吁暂停开发比 OpenAI GPT-4 更强大的系统 6 个月,理由是对社会有潜在风险。路透社 5 月民意调查显示 66% 美国人担心 AI 可能有负面影响,61% 认为会威胁人类文明。
(首图来源:shutterstock)