日夕导航

OpenAI 是一则对人工智能的道德拷问 宫斗 背后


文章编号:2139 / 更新时间:2023-12-23 18:06:45 / 浏览:
是一则对人工智能的道德拷问

最近,著名科技公司OpenAI陷入了内讧,董事会突然宣布将公司创始人兼首席执行官萨姆·阿尔特曼(Sam Altman)解雇。作为人工智能领域的明星公司,OpenAI管理层的变动迅速引起了全球科技界的关注。

作为公司的领导者,阿尔特曼对OpenAI的发展做出了重要贡献,使其从一个小机构成长为全球科技领域的独角兽。那么为什么董事会要解雇这位有功绩的人呢?目前来看,通用人工智能的发展应该以安全为首要还是以商业化为首要是冲突爆发的核心原因之一。

OpenAI成立时是一个非盈利机构,旨在确保人工智能的普及造福于人类,这一理想主义的目标吸引了许多顶级AI科学家拒绝其他科技巨头的高薪职位,选择加入OpenAI。然而,阿尔特曼在2019年将公司改组为营利性公司,并推出了ChatGPT,引发了全球新一轮的人工智能热潮。然而,在取得巨大商业成功的同时,OpenAI也出现了数据泄露、深度伪造、人工智能失控等一系列安全隐患,而阿尔特曼仍在全力加速下一代GPT的研发,以巩固商业优势。最终,OpenAI内部的保守派发起了反击,推动董事会解雇了阿尔特曼等商业派人士,试图让公司回归初衷。

八个多月前,包括马斯克在内的上千名科技人士发表联名信,呼吁暂停超强人工智能的研发,引起了全球对人工智能安全问题的关注。现在,OpenAI上演的这场权力游戏再次展示了人工智能发展所面临的道德困境

当前,由于涉及到上千亿的参数和复杂的算法结构,一些人工智能大型模型所展示的内容已经超出了创造者的预测能力,带来了造假、侵犯隐私等问题,也增加了监管的难度。令人担忧的是,实现人工智能发展、安全性和商业化之间的平衡是一个复杂的问题,需要综合考虑技术成熟度、道德准则和法律法规等因素,必然需要很长时间。然而,在商业公司对金钱的渴望、垄断的野心、落后的恐惧和缺乏安全共识的情况下,全球人工智能行业已经陷入了疯狂竞争,在数据、计算能力和算法方面不断卷入。正如OpenAI的首席科学家伊尔亚·苏茨克维(Ilya Sutskever)所指出的那样,世界需要认识到各公司竞相研发使得“超级智能从‘可能永远不会发生’变成了‘很快就会发生’。”

在超越人类的人工智能出现之前,我们应该高估还是低估其风险?不同的人有不同的答案。但是显然,如果高估了风险,人类只会浪费一些资源,但如果低估了,可能再也没有机会扭转局面。汽车出现了五十多年后,才有了安全带的发明;DDT杀虫剂问世近百年后,人类才开始怀疑其对环境的危害……回顾科技发展的历史,对于一种前所未见的新技术,人类可能永远不会准备好,但只有行动起来才能解决问题,至少可以减轻损害。

令人欣慰的是,全球对于加强人工智能监管已经达成了一些共识。一方面,美国提出了负责任地使用人工智能的五项核心原则,日本提出了以人为本的人工智能社会原则,中国提出了包容审慎的分类分级监管……世界各国纷纷立法,以期为这个技术巨兽设定明确的边界。另一方面,最近通过2023年亚太经济合作组织会议、第三届“一带一路”国际合作高峰论坛等国际对话,各方积极贡献智慧,支持在联合国框架下讨论人工智能治理,推动形成一个普遍参与、具有广泛共识的治理框架。这对于确保人工智能对人类未来发展的促进而不是威胁来说,都是有益的航标。

如今,人类已经跨越了机械化、电气化、自动化的阶段,进入了智能化的快车道。我们有理由相信,在理性和智慧的指引下,人工智能的发展将走向一个更加明亮、公正和有益的未来。


相关标签: OpenAI

本文地址:https://www.rixiy.com/article/8a6726297f9970f5c0ab.html

上一篇:马蹄莲的养殖方法和注意事项盆栽马蹄莲的养...
下一篇:混凝土地面防水用什么材料混凝土地面防冻措...

温馨提示

做上本站友情链接,在您站上点击一次,即可自动收录并自动排在本站第一位!
<a href="https://www.rixiy.com/" target="_blank">日夕导航</a>